Warum gilt nicht immer S=kBlnWS=kBln⁡WS = k_B \ln W?

Ich dachte lange, dass die Boltzmann-Formel für die Entropie, S = k B ln W , war eine allgemeingültige Aussage, oder vielmehr die Definition der Entropie aus Sicht der statistischen Mechanik. Inzwischen habe ich jedoch verstanden, dass es nur für ein isoliertes System (dh das mikrokanonische Ensemble) anwendbar ist, für das alle Mikrozustände des Systems gleich wahrscheinlich sind. Die allgemeinere Aussage ist die Gibbs-Entropie

S = k B ich P ich ln P ich .

Ich habe jedoch eine Ableitung der Boltzmann-Formel gesehen, sodass ich nicht ganz verstehen kann, warum diese Formel nicht immer gilt. Ich hatte gehofft, jemand könnte auf den Fehler in der folgenden Argumentation hinweisen.

Aus der klassischen Thermodynamik kennen wir das

T = ( U S ) v .

Betrachten wir nun zwei Systeme in thermischem Kontakt, die Energie austauschen dürfen. Wenn wir annehmen, dass alle Mikrozustände des gemeinsamen Systems gleich wahrscheinlich sind, argumentieren wir, dass das Gleichgewicht für eine Energieaufteilung erreicht wird, die die Anzahl möglicher entsprechender Mikrozustände maximiert. Also haben wir

d d E 1 ( W 1 ( E 1 ) W 2 ( E 2 ) ) = 0 .

Wenn wir dies durcharbeiten, gelangen wir zu der Bedingung, dass

d ln W 1 ( E 1 ) E 1 = d ln W 2 ( E 2 ) E 2 ,

aber da Gleichgewicht gleicher Temperatur entspricht, machen wir die natürliche Definition so

1 k B T = d ln W ( E ) d E ,
wobei wir diese besondere Form des Ausdrucks auf der linken Seite wählen, da dies dazu führt, dass die Energie für zwei Systeme mit sehr ähnlichen Temperaturen in die richtige Richtung (heiß nach kalt) fließt.

Setzen Sie dies mit dem obigen Ergebnis zusammen und identifizieren Sie U = E , das müssen wir haben

S = k B ln W .

Frage: Wo habe ich in diesem Argument Annahmen oder Fehler gemacht, sodass diese Formel nur für eine bestimmte Klasse von Systemen gilt? Warum kann ich diese Formel nicht verwenden, um die Entropie von (sagen wir) einem der beiden Systeme zu bestimmen, die ich in thermischen Kontakt gebracht habe (in der obigen Diskussion der Temperatur)? Warum ist die Gibbs-Formel die richtige für Systeme, die Energie austauschen dürfen? Ich glaube, wir verwenden diese Definition der Temperatur auch bei der Ableitung der kanonischen/Boltzmann-Verteilung (siehe zB hier ), und doch ist das Reservoir in diesem Fall kein isoliertes System, und daher hätte ich gedacht, dass dieser Ausdruck dies nicht tun würde anwenden. Vielen Dank.

Antworten (3)

Das Problem mit der Boltzmann-Definition ist, wie Sie schön gezeigt haben, dass ihre Nützlichkeit von der Annahme abhängt, dass Ihr System im Gleichgewicht mit seiner Umgebung ist. Ohne zuerst ein Gleichgewicht anzunehmen und anschließend die Temperaturen gleichzusetzen, kann man nicht zeigen, dass die Boltzmann-Entropie den Ersten Hauptsatz erfüllt und sie daher sinnvoll als Entropie definieren. Die Gibbs-Entropie liefert aber dennoch eine sinnvolle Definition, weil man sie zB über auf die Zustandssumme beziehen kann

S k B s P s ln P s = k B ( ln Z + β ln Z β ) = T ( k B T ln Z )

und damit andere Variablen wie die freie Helmholtz-Energie zu berechnen.

Darüber hinaus gehen Sie davon aus W groß genug ist, um als kontinuierliche Größe angenähert zu werden. W ist jedoch eine ganze Zahl und die Menge d ln W ist in einem System mit einer kleinen Anzahl von Mikrozuständen nicht gut definiert. Daher würde die Begründung, die Sie hier angegeben haben, zusammenbrechen. Dieses Problem tritt nie auf, wenn Sie von der Definition der Gibbs-Entropie ausgehen und von dort aus weiterarbeiten.

Frage: Wo habe ich in diesem Argument Annahmen oder Fehler gemacht, sodass diese Formel nur für eine bestimmte Klasse von Systemen gilt?

Die einzige Annahme, die gemacht wird, ist, dass die beiden verbundenen Systeme schwach interagieren, so dass, wenn das erste System eine durchschnittliche Energie hat E 1 hat der Makrozustand des Gelenksystems Phasenvolumen W 1 ( E 1 ) W ( E E 1 ) . Ich denke, das ist für alle Systeme der klassischen Thermodynamik gerechtfertigt. Wenn die Systeme stark wechselwirkten und die Energie keine homogene Funktion der Anzahl der Teilchen und des Volumens war, wurde das Phasenvolumen möglicherweise nicht durch eine solche Formel angegeben.

Warum kann ich diese Formel nicht verwenden, um die Entropie von (sagen wir) einem der beiden Systeme zu bestimmen, die ich in thermischen Kontakt gebracht habe (in der obigen Diskussion der Temperatur)?

Du kannst; auch wenn das Teilsystem 1 mit 2 und seiner Energie interagiert E 1 variiert grundsätzlich, für makroskopische Systeme ist diese Variation vernachlässigbar und nur der Mittelwert U 1 = E 1 ist wichtig für die Entropie. Man kann das Subsystem so behandeln, als wäre es ein isoliertes System mit dem gleichen Volumen und der gleichen Energie, die durch gegeben ist E 1 = U 1 .

Warum ist die Gibbs-Formel die richtige für Systeme, die Energie austauschen dürfen?

Die Gibbs-Formel ist nicht "die richtige" Formel für die Entropie. Der Punkt der Gibbs-Formel ist vielmehr, dass sie ein Funktional der Wahrscheinlichkeitsverteilung ist p k , mit der wichtigen Eigenschaft, dass der maximal mögliche Wert dieses Funktionals für ein System mit vorgeschriebener Durchschnittsenergie ist U 1 gibt Entropie bei dieser durchschnittlichen Energie; numerisch, k B ln W 1 ( E 1 ) und max k ϵ k p k = U 1 { k B k p k ln p k } sind für dichte Systeme zählbarer Zustände gleich k ( ϵ k ist Energie des Staates k .)

Die von Boltzmann definierte Entropie kann in Systemen mit fluktuierender Energie angewendet werden. Einzige Voraussetzung ist die scharfe Definition von Δ Γ , die Anzahl der Mikrozustände innerhalb des Makrozustands. Wenn die Zeit sehr lang ist, neigt die Wahrscheinlichkeitsverteilung im Phasenraum dazu, an jedem erlaubten Punkt konstant zu sein. Dies rechtfertigt das mikrokanonische Ensemble.

Wenn die Energie schwankt, müssen Sie eine zusätzliche Annahme treffen: Das System muss groß und weit von kritischen Punkten entfernt sein. Also die Fluktuation einer umfangreichen Größe wie der Energie E geht wie N , und die Erwartung Δ E wie N , wenn die Anzahl der Subsysteme N ist groß. Dies bedeutet, dass die Wahrscheinlichkeitsverteilung in Energie sehr eng ist ( Δ E E ¯ ).

Die letzte Annahme bedeutet, dass die Wahrscheinlichkeitsverteilung in Energie annähernd konstant bei ist E ¯ mit Breite Δ E und dann waren alle null. Dann können wir definieren Δ Γ wie:

Δ Γ = d Γ ( E ¯ ) d E Δ E

wo Γ ( E ) ist die Anzahl der Zustände unterhalb der Energie E , und \frac{d \Gamma (E)}{dE} die Zustandsdichte.

Dann können Sie Entropie definieren als k B ln ( Δ Γ ) . Beachten Sie, dass die Entropie nicht von der genauen Form der Wahrscheinlichkeitsverteilung abhängt. Wenn Sie diese Annäherungen nicht machen können, bedeutet dies, dass die Entropie stark von der Form der Wahrscheinlichkeitsverteilung abhängt.