Im Zusammenhang mit Thermodynamik und Statistischer Mechanik begegnen wir grundsätzlich drei verschiedenen Definitionen von Entropie:
Erste Definition:
Betrachten Sie ein isoliertes makroskopisches System, es hat einen Makrozustand und einen Mikrozustand; Der Makrozustand ist die Sammlung seiner makroskopischen Eigenschaften und der Mikrozustand ist der genaue Zustand, in dem sich die Bestandteile des Systems befinden. Dann die Entropie
ist als folgende Größe definiert:
Sie können also selbst sehen, dass die Definition von Entropie zumindest auf den ersten Blick ziemlich fragmentiert und verwirrend ist.
Glücklicherweise können wir die erste und zweite Definition leicht vereinheitlichen, indem wir uns auf das zweite grundlegende Postulat der statistischen Mechanik berufen: das Indifferenzprinzip , das uns Folgendes sagt:
Aber selbst mit dieser Verbesserung bleibt das Bild aufgrund von hauptsächlich zwei unterschiedlichen Problemen fragmentiert:
Fragmentierung zwischen klassischer und Quantenmechanik: Wie zählen wir die Anzahl möglicher Mikrozustände in einer nicht quantenmechanischen, klassischen Perspektive? Was ich meine ist: Wir haben in den ersten beiden Definitionen die Tatsache, dass die Anzahl möglicher kompatibler Mikrozustände endlich ist, für selbstverständlich gehalten, aber das kann natürlich nur in einem Quantenszenario wahr sein, indem wir hoffen, dass der Quantenphasenraum von Ort und Impuls, wird quantisiert. Was ist, wenn dies nicht der Fall ist? Was ist, wenn wir die Entropie in einem klassischen Nicht-Quanten-Szenario statistisch definieren wollen? Wie wir definieren im klassischen Phasenraum von Ort und Impuls? Statistische Entropie lässt sich nur quantenmechanisch definieren?
Fragmentierung zwischen klassischer Thermodynamik und statistischer Mechanik: Wie zeigen wir, dass die ersten beiden Definitionen mit der dritten kompatibel sind? Dies scheint herausfordernd zu sein, insbesondere weil die dritte Definition sehr vage zu sein scheint. Dies ist eine Art Bonusfrage, da ich diese vorherige Frage mit dem gleichen Problem begründet habe. aber ich denke, dass die dort gegebene Antwort eher schlecht gemacht und zu prägnant ist, und ich denke auch, dass es schön wäre, dieses Bild in einer Frage zu vervollständigen. Aber Sie können diese Frage gerne ignorieren, wenn Sie der Meinung sind, dass dies eine nutzlose Wiederholung der von mir verlinkten Antwort wäre.
Ich bin mir nicht sicher, ob das das ist, wonach Sie suchen, aber ich werde es versuchen.
In einem klassischen System arbeitet man im Phasenraum. Sie müssen diesen Raum in Volumenelemente unterteilen, um irgendeine Art von Zählung durchführen zu können. Wir gehen davon aus, dass das betrachtete System von einigen abhängt verallgemeinerte Koordinaten und Impulse:
Die Zustandssumme berechnet sich nun zu:
Wenn Sie diese Berechnung für ein ideales Gas durchführen (mit richtiger Zählung, um das Gibbs-Paradoxon zu vermeiden), erhalten Sie:
Zusammenfassend erfordert Statistik also Zählen. Wenn Sie klassisch arbeiten, müssen Sie den Phasenraum in ein undefiniertes Volumen unterteilen, das in Ihren Berechnungen durchgeht. Dieses Volumen wird richtig als Plancksche Konstante definiert, wenn man die gleiche Berechnung quantenmechanisch durchführt.
Zur zweiten Frage sage ich nur folgendes. Im ersten Fall definiert die Gleichung die Entropie und im zweiten eine infinitesimale Entropieänderung. Die erste leitet man ab, indem man zwei etwa gleich große Systeme in Kontakt bringt und die Gleichgewichtsbedingungen bestimmt (die Temperatur muss gleich sein). Man leitet die zweite ab, indem man ein kleineres System Wärme mit einem viel größeren Wärmereservoir austauscht und dann die nachfolgende Änderung der Entropie des Wärmereservoirs berechnet, indem man annimmt, dass seine Temperatur konstant bleibt.
Als letzte Anmerkung möchte ich nur darauf hinweisen, wenn Sie es nicht wissen (Entschuldigung, wenn Sie es tun), dass Ihre erste oben definierte Entropie Boltzmanns Definition ist, während Ihre zweite Gibbs Definition ist. Es gibt einen Unterschied, der hier diskutiert wird .
In der Thermodynamik ist die Entropie eine Zustandsgröße. Es wird also verwendet, um einen bestimmten Zustand des Systems im Konfigurationsraum zu definieren. Die erste Definition, die Sie gegeben haben, ist die Boltzmann-Entropie und gilt nur für isolierte Systeme oder mikrokanonische Ensembles. In einem mikrokanonischen Ensemble sind Zustandsgrößen wie Energie, Teilchenzahl und Volumen festgelegt. Alle Mikrozustände haben also die gleiche Energie und sind gleich wahrscheinlich. Also für alle Mikrozustände , ; Wo ist die Anzahl aller möglichen Mikrozustände.
Dieser Entropiebegriff kann durch die zugehörigen Legendre-Transformationen für andere Ensembles erweitert werden. Daraus ergibt sich die zweite Definition, die Sie gegeben haben, die Gibbs-Entropie. Das ist eine verallgemeinerte Version der Entropie, die auf alle Ensembles/Systeme anwendbar ist. Diese Definition der Entropie ist identisch mit der dritten Definition, die Sie gegeben haben ( https://doi.org/10.1119/1.1971557 ).
Betrachten Sie für ein halbqualitatives Verständnis die folgende Situation. Du hast Kisten, blaue Bälle, rote Kugeln und gleichfarbige Kugeln sind nicht zu unterscheiden. Auch, Und kann solange schwanken hält. Angenommen, Sie suchen nach dem Gleichgewichtszustand dieses Systems. Mit Hilfe der Boltzmann-Entropie kann man beweisen, dass der Gleichgewichtszustand vorliegt ; denn dieser Makrozustand ist der wahrscheinlichste und entspricht maximaler Entropie. Eine andere Möglichkeit, dies ohne Berechnung zu verstehen, besteht darin, den Makrozustand zu betrachten, der die meisten Mikrozustände oder die höchste Entartung aufweist. Wenn , dann können Sie beim Verteilen auf die maximale Anzahl von Kombinationen vornehmen Boxen. Wenn dieses System also ergodisch ist, wird es die meiste Zeit damit verbringen, Mikrozustände des erwähnten Makrozustands zu besuchen. Außerdem hat dieser Makrozustand die maximale Informationsmenge, die dieses System haben kann. Mit anderen Worten, die Informationen, die Sie benötigen, um diesen Zustand zu beschreiben, sind mehr als die Informationen, die Sie benötigen, um jeden anderen Zustand zu beschreiben. Daher ist die Gibbs-Entropie das physikalische Analogon der Shannon-Entropie. Die Tatsache, dass Sie mehr Informationen benötigen, bedeutet jedoch nichts über Unordnung. Da Sie dazu eine Definition der Reihenfolge benötigen . Im Gegenteil, man kann die gleiche Anzahl von Kugeln ziemlich plausibel und geordnet finden .
Um es kurz zu machen, bei der Entropie geht es hauptsächlich (wenn nicht alles) um die Umverteilung der verfügbaren Energie, bis Gleichgewichte für alle beschreibbaren Systeme erreicht sind. Nur dann kann das Gleichgewicht erreicht werden.
Siehe https://en.wikipedia.org/wiki/Heat_death_of_the_universe .
Jonas
David Weiß
Noumeno
David Weiß