Warum ist Entropie eine umfangreiche Größe?

Wenn wir zwei identische isolierte makroskopische Systeme haben, beide mit Energie E . Die Anzahl der zugänglichen Zustände von jedem von ihnen ist Ω ( E ) und daher ist die Entropie ln Ω ( E ) . Wenn wir sie nun in thermischen Kontakt bringen, um ein größeres isoliertes System mit Energie 2 zu bilden E (angenommen, es gibt schwache Wechselwirkungen). Dann ist die Anzahl der zugänglichen Zustände des gesamten Systems

X Ω ( X ) Ω ( 2 E X )
aber nicht nur
Ω ( E ) Ω ( E )

Die Gesamtentropie ist also

ln X Ω ( X ) Ω ( 2 E X )

Aber nicht nur

ln [ Ω ( E ) Ω ( E ) ] = ln Ω ( E ) + ln Ω ( E ) = S 1 + S 2
.

Warum also sagen wir, dass Entropie extensiv ist?

Ω ( E ) Ω ( E ) ist der Fall, wenn die beiden Systeme nicht interagieren. Denken Sie daran.
Wie Sie festgestellt haben, ist die Entropie im mikrokanonischen Ensemble NICHT extensiv. Auch nicht im Fall der Nichtinteraktion. Bedenken Sie, dass, wenn Sie die Systeme wieder trennen, sie eine Energieunsicherheit haben, mit der sie nicht beginnen mussten.
Im Gegensatz dazu ist die Entropie im kanonischen Ensemble (im nicht wechselwirkenden Fall) vollkommen umfangreich, solange Sie keinen Teilchenaustausch zwischen den Systemen zulassen. Wenn Sie es zulassen, müssen Sie zum Grand Canonical Ensemble wechseln, um Ihre Extensivität zu finden.
Gute Frage! Es kommt mir ziemlich intensiv vor!

Antworten (4)

Ich glaube da liegt ein Missverständnis vor. Sie haben vollkommen Recht, wenn Sie schreiben, dass die gesamte mikrokanonische Entropie eines kombinierten Systems sein wird

S kombiniert ( 2 E ) = k B ln X Ω ( X ) Ω ( 2 E X )

Die mikrokanonische Entropie sollte nur eine Funktion der Gesamtenergie, der Gesamtmenge an Materie und des Gesamtvolumens eines Systems sein, und die von Ihnen angegebene Formel erfüllt diese Anforderungen.

Es muss auch im thermodynamischen Limes extensiv sein , was bedeutet, dass es sich einer Eulerschen Funktion vom Grad 1 annähern muss, dh so, dass wir für große Systemgrößen haben S kombiniert ( 2 E ) 2 S ( E ) .

Dies kann gezeigt werden, indem man das bemerkt Ω ( X ) = e S ( X ) / k B . Wenn wir das weiter annehmen S ( X ) N S ( X ) in der thermodynamischen Grenze (wobei S ( X ) Ö ( 1 ) ) Dann:

S kombiniert ( 2 E ) k B ln X e N S ( X ) / k B e N S ( 2 E X ) / k B
Nun, weil N praktisch gegen unendlich strebt, wird die Summe überwältigend von ihrem wahrscheinlichsten Wert dominiert, den wir nennen X (aufgrund des Sattelpunktsatzes). Wenn die beiden Teilsysteme gleich sind, besteht die einzige Möglichkeit darin X = E und wir bekommen:
S kombiniert ( 2 E ) k B ln e N S ( X ) / k B e N S ( 2 E X ) / k B 2 S ( E )
Dies ist kein exaktes Ergebnis für jede endliche Systemgröße. Sie können es als exaktes Ergebnis in der idealen thermodynamischen Grenze oder als Näherungsergebnis für endliche Systemgrößen sehen.

Menschen, die numerische Simulationen in der statistischen Mechanik (mit einer endlichen Anzahl von simulierten Objekten) durchführen, müssen sich ständig um diesen Aspekt kümmern.

Wichtige Änderung: In @gatsus Antwort wird darauf hingewiesen, dass nur die Energiemenge von Bedeutung sein sollte, was richtig ist, da es keine unterscheidbaren Mikrozustände mit nur neu angeordneter Energie gibt (denken Sie an Entropieberechnungen vom Typ Sterne und Balken). Also habe ich diesen Teil des ersten Absatzes und der Gleichungen herausgeschnitten (im ersten Entwurf habe ich diesen Teil der Gleichung auf halbem Weg weggelassen, ohne zu merken, dass dies meine Antwort ungültig machte).

Die kombinierte Entropie identischer Systeme in thermischem Kontakt ist gegeben durch

X Ω ( X ) Ω ( 2 E X ) .
Aber für groß E , dies wird scharf an gespitzt X = E , also spielen die anderen Terme keine Rolle.
S gesamt = Protokoll X Ω ( X ) Ω ( 2 E X ) Protokoll Ω ( E ) Ω ( E ) = 2 Protokoll Ω ( E ) = 2 S


Nachtrag:

Das Obige ist eher eine Demonstration, dass Entropie eine umfangreiche Eigenschaft ist, keine additive Eigenschaft (wie ursprünglich gefragt). In der Tat, wenn Systeme A Und B nicht identisch sind, dann ist die Gesamtentropie größer als S A + S B im Allgemeinen aufgrund der Interaktion. Dies ist eine weitere Aussage des zweiten Hauptsatzes der Thermodynamik.


Nachtrag 2:

Ich wurde gebeten, aufzuhören, ein solcher Physiker zu sein, und ein wenig Strenge in meine Mathematik zu legen. Konkret ist der Spitzenwert der kombinierten Entropie durch gegeben

X Ω ( X ) Ω ( 2 E X )
prominent genug, um alle anderen Begriffe zu ignorieren? Da alle nicht-trivialen Beispiele für Ω ( X ) würde ein analytisches Ergebnis verhindern, halte ich das einfach für einfacher
X ( 2 E X ) = 2 2 E
(ja, immer noch Physiker).

Unter Verwendung der Näherung von Stirling,

Protokoll ( 2 E E ) = Protokoll ( 2 E ) ! ( E ! ) 2 2 E Protokoll ( 2 E ) 2 E 2 ( E Protokoll E E ) = 2 E Protokoll 2 + 2 E Protokoll E 2 E 2 E Protokoll E + 2 E = 2 E Protokoll 2
Und deshalb,
( 2 E E ) e 2 E Protokoll 2 = 2 2 E
Was wir am Anfang dieses Nachtrags gefunden haben. Seit Ω ( X ) Ω ( 2 E X ) ist ähnlich hoch X = E , das Ergebnis sollte immer noch gelten.


Nachtrag 3:

Moment mal, versuchen wir es mal mit einem etwas realen Entropie-Beispiel: Jedes System besteht aus N Teilchen, die teilen X Quanten an Energie. Die Entropie ist nach der Standard-Sternen-und-Balken-Analyse gegeben durch

S = Protokoll Ω ( X ) = Protokoll ( N + X 1 ) ! X ! ( N 1 ) !
Die kombinierte Entropie ist gegeben durch
S T Ö T A l = Protokoll X = 0 2 E Ω ( X ) Ω ( 2 E X ) = Protokoll X = 0 2 E [ ( N + X 1 ) ! X ! ( N 1 ) ! ( N + 2 E X 1 ) ! ( 2 E X ) ! ( N 1 ) ! ] = Protokoll ( 2 E + 2 N 1 ) ! ( 2 E ) ! ( 2 N 1 ) ! (mit freundlicher Genehmigung von Wolfram Alpha) ( 2 E + 2 N 1 ) Protokoll ( 2 E + 2 N 1 ) ( 2 E + 2 N 1 ) 2 E Protokoll 2 E + 2 E ( 2 N 1 ) Protokoll ( 2 N 1 ) + ( 2 N 1 ) 2 E Protokoll ( 1 + N E ) + 2 N Protokoll ( 1 + E N )

Nun, der größte Begriff in dieser Summe ist wann X = E :

S T Ö T A l Protokoll ( Ω ( E ) 2 ) = 2 Protokoll ( ( N + E 1 ) ! E ! ( N 1 ) ! ) = 2 ( ( N + E 1 ) Protokoll ( N + E 1 ) ( N + E 1 ) E Protokoll E + E ( N 1 ) Protokoll ( N 1 ) + ( N 1 ) 2 E Protokoll ( 1 + N E ) + 2 N Protokoll ( 1 + E N )
das ist das gleiche wie die volle Summe.

"Für große E hat dies einen scharfen Höhepunkt bei x = E, also spielen die anderen Terme keine Rolle." Können Sie rigorose Mathematik liefern?

Warum also sagen wir, dass Entropie extensiv ist?

Es ist eine Konvention, die für schwach wechselwirkende Systeme möglich und nützlich ist. Zustandsvielfalt des Systems aus zwei Systemen gleicher Art und Größe und Energie E Ist

Ω ' ( 2 E ) = Ω ( E ) Ω ( E )

mit sehr guter Genauigkeit gehen die anderen Terme in die Summe über X Sie haben angegeben, kann vernachlässigt werden. Entropie kann definiert werden als Protokoll Ω und dann ist es umfangreich - je höher, desto größer die Anzahl der Teilchen im System.

Für stark wechselwirkende Systeme oder Systeme mit sehr geringer Teilchenzahl sind die anderen Terme in der Summe für die Gesamtmultiplizität nicht vernachlässigbar und die statistische Physik ist auf diese Weise nicht anwendbar.

Zusätzliche heuristische Argumente.

Im thermischen Gleichgewicht nimmt jedes Subsystem Werte an, die die Wahrscheinlichkeit maximieren, sagen wir mit Energie U (mit Schwankung, die im thermodynamischen Limit verschwindet)

S 1 = ln Ω 1 ( U ) , S 2 = ln Ω 2 ( E U )

Das Verbundsystem ist eine Summe über Energiewerte

S C = ln { X = 0 E Ω 1 ( X ) Ω 2 ( E X ) }

Diese Summe ist größer als ihr größter Term, aber kleiner als der maximale Term multipliziert mit der Anzahl der Terme (z E / δ E )

Ω 1 ( U ) Ω 2 ( E U ) X = 0 E Ω 1 ( X ) Ω 2 ( E X ) E δ E Ω 1 ( U ) Ω 2 ( E U )

Wenn wir den Logarithmus nehmen, haben wir

S 1 + S 2 S C S 1 + S 2 + ln E ln δ E

Die letzten beiden Terme sind von Ordnung ln N , wo andere in Ordnung sind N ; daher haben wir im thermodynamischen Grenzfall die strikte Additivität der Entropie

S C S 1 + S 2

Siehe Silvio Salinas (2001), Einführung in die statistische Physik .