Springen naar inhoud

Chaos en entropie


  • Log in om te kunnen reageren

#1

natuurkunde-nerd

    natuurkunde-nerd


  • >100 berichten
  • 183 berichten
  • Ervaren gebruiker

Geplaatst op 15 februari 2008 - 19:45

Heey,
Ik las laatst een interessant stukje over de chaos-theorie..alleen ik snap er niet zoveel van.
Net zoals entropie; ik heb er veel over gelezen nu, maar ik kan het niet allemaal zo 1,2,3 plaatsen. Zou iemand mij in het kort (of als je tijd over hebt; uitgebreid) kunnen vertellen wat men onder de chaos-theorie en entropie verstaan?
Thxx NN :D
Eventuele typfouten of spellingsfouten kan ik niet uitsluiten, daarvoor alvast mijn excuses! ;)

Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.

#2

Klintersaas

    Klintersaas


  • >5k berichten
  • 8614 berichten
  • VIP

Geplaatst op 15 februari 2008 - 20:43

[quote name='natuurkunde-nerd' post='395113' date='15 February 2008, 19:45']Zou iemand mij in het kort (of als je tijd over hebt; uitgebreid) kunnen vertellen wat men onder de chaos-theorie[/quote]
De Bericht bekijken
en entropie verstaan?[/quote]
Kort gezegd is entropie een maat voor de wanorde binnen een systeem. Meer informatie vind je in de link.

Geloof niet alles wat je leest.

Heb jij verstand van PHP? Word Technicus en help mee om Wetenschapsforum nog beter te maken!


#3

natuurkunde-nerd

    natuurkunde-nerd


  • >100 berichten
  • 183 berichten
  • Ervaren gebruiker

Geplaatst op 15 februari 2008 - 21:07

Daardoor vertonen ze ogenschijnlijk willekeurig gedrag, terwijl ze eigenlijk deterministisch zijn.


Dus in feite staat al vast, wat er gaat gebeuren? Dus de Chaos-theorie, verklaard eigenlijk dat het onvoorspelbare toch voorspelbaar is? En Entropie dan...is dat een maat die binnen de Chaos-theorie gebruikt word?

Veranderd door natuurkunde-nerd, 15 februari 2008 - 21:08

Eventuele typfouten of spellingsfouten kan ik niet uitsluiten, daarvoor alvast mijn excuses! ;)

#4

Klintersaas

    Klintersaas


  • >5k berichten
  • 8614 berichten
  • VIP

Geplaatst op 15 februari 2008 - 21:15

Dus in feite staat al vast, wat er gaat gebeuren? Dus de Chaos-theorie (= chaostheorie), verklaard (= verklaart) eigenlijk dat het onvoorspelbare toch voorspelbaar is?

Neen, met deterministisch wordt bedoeld dat hun toekomstige vorm volledig bepaald wordt door initiŽle omstandigheden zonder enige inmenging van randomness.

En Entropie dan...is dat een maat die binnen de Chaos-theorie (= chaostheorie) gebruikt word (= wordt)?

Entropie en chaostheorie hebben inderdaad met elkaar te maken.

Geloof niet alles wat je leest.

Heb jij verstand van PHP? Word Technicus en help mee om Wetenschapsforum nog beter te maken!


#5

da_doc

    da_doc


  • >250 berichten
  • 308 berichten
  • Ervaren gebruiker

Geplaatst op 16 februari 2008 - 12:05

"Kort gezegd is entropie een maat voor de wanorde binnen een systeem".

Dat is wel kort, maar niet juist. "Wanorde" betekent niets. Het heeft met de verdeling van energie over vrijheidsgraden te maken. Volgens de klassieke vergelijking van Clausius is dS=dQ/T, waarbij S de entropie van een systeem is, T de temperatuur en dQ de toegevoegde warmte. Veranderingen van "orde" die niet met een dQ te maken hebben zijn dus niet relevant. Zie b.v. http://www.entropysite.com/#articles10.

Bovenstaand gaat dus over thermodynamische entropie. Het is verwarrend dat er ook andere entropie noties bestaan, zoals b.v. informatieentropie (Shannon).

#6

natuurkunde-nerd

    natuurkunde-nerd


  • >100 berichten
  • 183 berichten
  • Ervaren gebruiker

Geplaatst op 16 februari 2008 - 22:29

Goed,
om eerlijk te zijn, kan ik me nog niet zoveel voorstellen bij Entropie. En dan de entropie binnen de thermodynamica, om wat specifieker te zijn. Misschien handig om te vermelden; ik heb van beide nog weinig kennis.'

Samenvattend van wat er gezegd is; entropie is dus eigenlijk de maat voor het aantal mogelijke "verschijnselen" binnen een (gesloten)systeem?
Eventuele typfouten of spellingsfouten kan ik niet uitsluiten, daarvoor alvast mijn excuses! ;)

#7

Phys

    Phys


  • >5k berichten
  • 7556 berichten
  • VIP

Geplaatst op 16 februari 2008 - 23:09

Entropie is gedefinieerd als de logaritme van het aantal toegankelijke microtoestanden (kwantumtoestanden) g: LaTeX .
Never express yourself more clearly than you think.
- Niels Bohr -

#8

Klintersaas

    Klintersaas


  • >5k berichten
  • 8614 berichten
  • VIP

Geplaatst op 17 februari 2008 - 11:58

Dat is wel kort, maar niet juist. "Wanorde" betekent niets.

Het is wetenschappelijk gezien misschien niet de meest correcte uitleg, maar wel een begrijpbare. In essentie kan je het wel degelijk zien als wanorde.

Geloof niet alles wat je leest.

Heb jij verstand van PHP? Word Technicus en help mee om Wetenschapsforum nog beter te maken!


#9

eendavid

    eendavid


  • >1k berichten
  • 3751 berichten
  • VIP

Geplaatst op 17 februari 2008 - 14:13

Zie hier (zelf maar gelezen vanaf 'entropy'). Ik denk dat het een interessante manier biedt om de chaos-entropie link kwalitatief te begrijpen. Wat er staat is essentieel correct, hoewel soms niet helemaal precies.

Het gebruik van het begrip wanorde (wat correcter tot uiting komt in de begrijpbare uitleg van de microtoestanden) in dit topic is verwarrend omdat het eventuele verwarring met het begrip chaos kan veroorzaken.

#10

da_doc

    da_doc


  • >250 berichten
  • 308 berichten
  • Ervaren gebruiker

Geplaatst op 18 februari 2008 - 10:47

Phys, je zegt "Entropie is gedefinieerd als de logaritme van het aantal toegankelijke microtoestanden (kwantumtoestanden".

De vraag is alleen: wat bedoel je met "het aantal toegankelijke microtoestanden"? Als het totale aantal microscopische kwantumtoestanden constant is, hoe kan de entropie dan temperatuurafhankelijk zijn? Dat is geen triviaal onderwerp, en heeft te maken met het verschil tussen de entropie volgens Gibbs en die volgens Boltzmann.

Zie b.v. artikel 21 op http://bayes.wustl.edu/etj/node1.html

#11

eendavid

    eendavid


  • >1k berichten
  • 3751 berichten
  • VIP

Geplaatst op 18 februari 2008 - 11:52

On the molecular scale, the two definitions match up because adding heat to a system, which increases its classical thermodynamic entropy, also increases the system's thermal fluctuations, so giving an increased lack of information about the exact microscopic state of the system, i.e. an increased statistical mechanical entropy.

bron: wikipedia. De beschrijving die Phys gaf is een algemeen aanvaarde definitie van entropie.

#12

da_doc

    da_doc


  • >250 berichten
  • 308 berichten
  • Ervaren gebruiker

Geplaatst op 18 februari 2008 - 12:02

Eendavid, je moet wel heel exact formuleren als je het over entropie hebt.

"increased lack of information about the exact microscopic state of the system": waarom betekent dat hetzelfde als "het aantal toegankelijke microtoestanden"? En "lack of information" van wie?

De thermodynamische entropie is een maat voor het aantal microscopische toestanden dat met de macroscopische thermodynamische constraints (P, V, T. etc.) compatibel is.

Als je dat artikel van Jaynes leest, dan zie je hoe voorzichtig je moet zijn met entropie.

#13

da_doc

    da_doc


  • >250 berichten
  • 308 berichten
  • Ervaren gebruiker

Geplaatst op 18 februari 2008 - 12:13

Wie zijn tandjes erin wil zetten, kan hier terecht:

http://physics.uwyo...._Mechanics.html

Die drie artikelen zijn zeer goed, en verschaffen een diep inzicht in thermodynamica.

#14

eendavid

    eendavid


  • >1k berichten
  • 3751 berichten
  • VIP

Geplaatst op 18 februari 2008 - 12:32

Beschouw een systeem op een gegeven temperatuur. Spreek je dan tegen dat op een hogere temperatuur de onzekerheid op de microtoestand, gegeven de macrotoestand, groter is?

#15

da_doc

    da_doc


  • >250 berichten
  • 308 berichten
  • Ervaren gebruiker

Geplaatst op 18 februari 2008 - 13:12

Nee, dat spreek ik niet tegen, zie exp(-E/kT) etc. Ik zei al, dat de entropie meet, hoeveel microscopische toestanden met de macrostaat compatibel zijn.

Er zijn nu verschillende issues in deze discussie: wat betekent "wanorde" iha, hoe hangt entropie met chaos samen, wat betekent entropie precies? Je ziet b.v. wel eens de bewering, dat de entropie van boeken op een boekenplank er vanaf hangt, of die boeken op een of andere volgorde staan. Dat slaat thermodynamisch gezegd nergens op. Overigens: wanneer staan boeken op volgorde? Is dat volgorde op auteursnaam, of op publikatiedatum, of op uitgeverij, of op gewicht, of op kleur, .... dat laat wel zien, dat "wanorde" niets betekent.





0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures