Entropie: Unordnung oder Energiezerstreuung?

Die erste von Clausius gegebene Definition der Entropie lautet: Ich glaube dies

S = Q / T
Es ist, wie ich es verstehe, eine allgemeine Tatsache, Entropie zu verstehen und sie vielleicht oft als Maß für Unordnung durch die statistische Definition von Boltzmann oder Gibbs (je nach Ensemble) zu lehren.
S = k ln Ω
Meine Frage in Abhängigkeit von der Entropie lautet nach einigem Suchen (siehe A MODERN VIEW OF ENTROPY von Frank L. LAMBERT ) wie folgt:

Ist die physikalische Bedeutung von Entropie nur statistisch zu verstehen als Unordnung wegen der Veränderung der statistischen Gewichte Ω , Oder indem Sie auch auf die Thermodynamik schauen, zu einer Definition von Entropie als Energieverteilung übergehen? Mit anderen Worten, stellen Sie sich die physikalische Bedeutung von Entropie als eine Streuung der Energie innerhalb (oder vielleicht an einigen Stellen nach außen) des betrachteten Systems vor, wobei Streuung für eine breitere Verteilung durch die inneren Teile des Systems steht (klassisch oder quantenmechanisch). ).

Kann ich einen Teil von einigen Artikeln oder Artikeln posten, die ich gelesen habe, damit meine Frage konkreter wird?
Dies sind Links für weitere Informationen zu dem in der Frage erwähnten Ansatz – dies gilt für Energie als Energieverteilung khimiya.org/volume15/Entropia.pdf entropysite.oxy.edu/jung.pdf
Gibt es ein Problem mit dieser Frage?
Zugehörig: „Bedeutet die Tatsache, dass es zwei verschiedene mathematische Definitionen von Entropie gibt, dass es zwei verschiedene Arten von Entropie gibt?“ physical.stackexchange.com/questions/519293/…

Antworten (3)

Thermodynamische Entropie ist keine Definition. Im Gegensatz zu den widerlich zahlreichen Quellen, die dies behaupten, ist Entropie KEINE Unordnung. Entropie ist auch KEIN Maß dafür, wie viel wir über das physikalische System wissen. In einem Satz ist Entropie ein Maß für die Anzahl unterschiedlicher Energiemikrozustände, die mit der Gesamtenergie und den physikalischen Einschränkungen des Systems übereinstimmen. Dies ist eine Eigenschaft, die für jedes System einzigartig ist, dem es egal sein könnte, wer sie misst (tatsächlich kann sie nicht gemessen werden, nur Entropieänderungen können gemessen werden).

"Entropie ist ein Maß für die Anzahl unterschiedlicher Energiemikrozustände, die mit der Gesamtenergie und den physikalischen Einschränkungen des Systems übereinstimmen." Das gilt nur, wenn Energie die einzige Zwangsgröße ist. Allgemeiner gesagt ist Entropie die Menge von Zuständen, die mit allen dem System auferlegten Beschränkungen konsistent sind, einschließlich Energie, Volumen usw. (und Temperatur und Druck sind die mit diesen Beschränkungen verbundenen Lagrange-Multiplikatoren).
Und ist die Idee eines Mikrozustands gut definiert?

S=Q/T und S=klnΩ widersprechen sich nicht. Um dies zu verstehen, müssen Sie zuerst verstehen, dass S=Q/T nicht die absolute Entropie beschreibt. Es beschreibt die Entropieänderung. Wenn beispielsweise 1 J aus einem Steinblock bei 300 K extrahiert wird, verringert sich die Entropie des Steins um S = Q/T = 1 J/300 K. (Genau genommen sollten wir dS = dQ/T verwenden, da sich die Temperatur des Steins ändern kann. Um die Gesamtänderung von S zu erhalten, müssen wir über den gesamten Energieextraktionsprozess integrieren: Δ S = D Q / T ).

Wenn Sie nun mikroskopisch 1J aus dem Stein extrahieren, kühlt es ein wenig ab (niedrigere Temperatur). Wenn die Temperatur die Phononenverteilung (Gitterschwingung im Stein) ändert (eine Bose-Einstein-Verteilung, da Phononen Bosonen sind), werden die verfügbaren mikroskopischen Zustände für die Gitterschwingung (Ω) geringer und die statistische Gleichung S = k l N Ω erhalten Sie das gleiche Ergebnis der reduzierten Entropie (oder streng genommen Δ S = D Q / T = k ln Ω A F T e R k ln Ω B e F Ö R e ).

Zusammenfassend lässt sich sagen, dass der Schlüssel zur Vereinbarkeit der beiden Gleichungen darin besteht, die mikroskopische (statistische) Bedeutung der Temperatur zu verstehen – während sie klassischerweise misst, wie heiß ein Objekt ist; mikroskopisch beschreibt es die Wahrscheinlichkeitsverteilung von Teilchen (oder Quasi-Teilchen wie Phononen).

Es geht nicht um entweder/oder; es ist sowohl/als auch.

Vergleichen wir zur Verdeutlichung mit einer anderen Größe: der inneren Energie. In thermodynamischer Hinsicht ist die innere Energie die zustandsabhängige Größe, deren Wechsel zwischen den Zuständen (für ein geschlossenes System) gleich der Arbeit ist, die erforderlich ist, um sich zwischen diesen Zuständen unter Bedingungen thermischer Isolation zu bewegen. Mikroskopisch gesehen ist die innere Energie die Summe der Bewegungs- und Feldenergien der Systemteile. Diese beiden Definitionen widersprechen sich nicht, und es hilft unserem Verständnis nicht zu behaupten, dass die eine „eigentlich“ die richtige und die andere nur ein Mitläufer ist. Sie sind miteinander übereinstimmende Aussagen über eine physikalische Eigenschaft, die beide Einsicht und Erleuchtung bringen.

Nun kann man für die Entropie Ähnliches sagen. Sie können es als Funktion des Zustands definieren, dessen Änderung zwischen den Zuständen (für ein geschlossenes System) gleich dem Integral von ist D Q / T wenn die Änderung reversibel durchgeführt wird. Sie können Entropie auch definieren als k B ich P ich ln P ich oder als k B ln Ω . Die statistischen Definitionen erfordern ein gewisses Verständnis dafür, was wir mit dem Index zählen ich und die Wahrscheinlichkeiten P ich , und was wir mit einer Reihe von Mikrozuständen und Einschränkungen meinen. Aber die statistischen und thermodynamischen Aussagen widersprechen sich nicht (ganz im Gegenteil), noch ist die eine „eigentlich“ die richtige und die andere nur ein Mitläufer oder peinlicher Verwandter. Sie sind miteinander übereinstimmende Aussagen über eine physikalische Eigenschaft, die beide Einsicht und Erleuchtung bringen.