Wie kann man die Definition von Entropie vollständig verstehen?

Im Zusammenhang mit Thermodynamik und Statistischer Mechanik begegnen wir grundsätzlich drei verschiedenen Definitionen von Entropie:
Erste Definition:
Betrachten Sie ein isoliertes makroskopisches System, es hat einen Makrozustand und einen Mikrozustand; Der Makrozustand ist die Sammlung seiner makroskopischen Eigenschaften und der Mikrozustand ist der genaue Zustand, in dem sich die Bestandteile des Systems befinden. Dann die Entropie S ist als folgende Größe definiert:

(1) S = k B ln Γ
Wo k B ist nur die Boltzmann-Konstante und Γ ist die Anzahl möglicher Mikrozustände , die mit dem Makrozustand kompatibel sind, in dem sich das System befindet .
Zweite Definition:
Gleiches Setup wie zuvor, aber jetzt ist die Entropie definiert als:
(2) S = k B ich P ich ln P ich
bei dem die P ich ist die Wahrscheinlichkeit, dass sich das System in der befindet ich -ten Mikrozustand (wieder aus dem Pool kompatibler Mikrozustände entnommen).
Dritte Definition:
Wir ändern den Aufbau komplett: Betrachten wir einen reversiblen thermodynamischen Kreisprozess; dann definieren wir Entropie einfach als generische Funktion der Zustandsvariablen (also als Zustandsfunktion ), die die folgende Eigenschaft hat:
(3) D S = D Q T
Wo T ist die Temperatur des Systems, in dem der thermodynamische Prozess stattfindet, und D Q ist die infinitesimale Wärmemenge, die reversibel in das System geleitet wird .

Sie können also selbst sehen, dass die Definition von Entropie zumindest auf den ersten Blick ziemlich fragmentiert und verwirrend ist.
Glücklicherweise können wir die erste und zweite Definition leicht vereinheitlichen, indem wir uns auf das zweite grundlegende Postulat der statistischen Mechanik berufen: das Indifferenzprinzip , das uns Folgendes sagt:

P ich = 1 Γ
und dann können wir mit ein wenig Arbeit leicht zeigen, dass die beiden Definitionen äquivalent sind.

Aber selbst mit dieser Verbesserung bleibt das Bild aufgrund von hauptsächlich zwei unterschiedlichen Problemen fragmentiert:

  1. Fragmentierung zwischen klassischer und Quantenmechanik: Wie zählen wir die Anzahl möglicher Mikrozustände Γ in einer nicht quantenmechanischen, klassischen Perspektive? Was ich meine ist: Wir haben in den ersten beiden Definitionen die Tatsache, dass die Anzahl möglicher kompatibler Mikrozustände endlich ist, für selbstverständlich gehalten, aber das kann natürlich nur in einem Quantenszenario wahr sein, indem wir hoffen, dass der Quantenphasenraum von Ort und Impuls, wird quantisiert. Was ist, wenn dies nicht der Fall ist? Was ist, wenn wir die Entropie in einem klassischen Nicht-Quanten-Szenario statistisch definieren wollen? Wie wir definieren Γ im klassischen Phasenraum von Ort und Impuls? Statistische Entropie lässt sich nur quantenmechanisch definieren?

  2. Fragmentierung zwischen klassischer Thermodynamik und statistischer Mechanik: Wie zeigen wir, dass die ersten beiden Definitionen mit der dritten kompatibel sind? Dies scheint herausfordernd zu sein, insbesondere weil die dritte Definition sehr vage zu sein scheint. Dies ist eine Art Bonusfrage, da ich diese vorherige Frage mit dem gleichen Problem begründet habe. aber ich denke, dass die dort gegebene Antwort eher schlecht gemacht und zu prägnant ist, und ich denke auch, dass es schön wäre, dieses Bild in einer Frage zu vervollständigen. Aber Sie können diese Frage gerne ignorieren, wenn Sie der Meinung sind, dass dies eine nutzlose Wiederholung der von mir verlinkten Antwort wäre.

Meine vereinfachte Sichtweise der Entropie: Alle konzentrierten Energiequellen werden mit der Zeit immer dünner.
@DavidWhite Ich möchte auch eine vereinfachte Sichtweise annehmen. Aber leider wird dich die Mathematik jagen , wenn du das tust .
@Noumeno, Sie möchten also tatsächlich eine bestimmte MATHEMATISCHE Definition von Entropie verstehen?

Antworten (2)

Ich bin mir nicht sicher, ob das das ist, wonach Sie suchen, aber ich werde es versuchen.

In einem klassischen System arbeitet man im Phasenraum. Sie müssen diesen Raum in Volumenelemente unterteilen, um irgendeine Art von Zählung durchführen zu können. Wir gehen davon aus, dass das betrachtete System von einigen abhängt F verallgemeinerte Koordinaten und Impulse:

E ( Q 1 . . . Q F , P 1 . . . P F )
und somit wird der Phasenraum in Volumenelemente von unterteilt H 0 F , wobei diese 'Größe' undefiniert bleibt.

Die Zustandssumme berechnet sich nun zu:

Z = . . . e β E ( Q 1 . . . P F ) D Q 1 . . . D P F H 0 F
Sie können dies jetzt verwenden, um viele thermodynamische Eigenschaften zu berechnen, einschließlich der Entropie S = k ( l N Z + β E ¯ ) .

Wenn Sie diese Berechnung für ein ideales Gas durchführen (mit richtiger Zählung, um das Gibbs-Paradoxon zu vermeiden), erhalten Sie:

S = k N ( l N v N + 3 2 l N T + σ 0 )
Wo
σ 0 = 3 2 l N 2 π M k H 0 2 + 5 2
Beachten Sie, dass unser undefiniertes Volumen im Phasenraum in ist σ 0 . Wenn Sie genau dieselbe Berechnung quantenmechanisch durchführen, erhalten Sie am Ende genau dieselbe Formel, außer jetzt H 0 Ist so wie es sein sollte.

Zusammenfassend erfordert Statistik also Zählen. Wenn Sie klassisch arbeiten, müssen Sie den Phasenraum in ein undefiniertes Volumen unterteilen, das in Ihren Berechnungen durchgeht. Dieses Volumen wird richtig als Plancksche Konstante definiert, wenn man die gleiche Berechnung quantenmechanisch durchführt.

Zur zweiten Frage sage ich nur folgendes. Im ersten Fall definiert die Gleichung die Entropie und im zweiten eine infinitesimale Entropieänderung. Die erste leitet man ab, indem man zwei etwa gleich große Systeme in Kontakt bringt und die Gleichgewichtsbedingungen bestimmt (die Temperatur muss gleich sein). Man leitet die zweite ab, indem man ein kleineres System Wärme mit einem viel größeren Wärmereservoir austauscht und dann die nachfolgende Änderung der Entropie des Wärmereservoirs berechnet, indem man annimmt, dass seine Temperatur konstant bleibt.

Als letzte Anmerkung möchte ich nur darauf hinweisen, wenn Sie es nicht wissen (Entschuldigung, wenn Sie es tun), dass Ihre erste oben definierte Entropie Boltzmanns Definition ist, während Ihre zweite Gibbs Definition ist. Es gibt einen Unterschied, der hier diskutiert wird .

In der Thermodynamik ist die Entropie eine Zustandsgröße. Es wird also verwendet, um einen bestimmten Zustand des Systems im Konfigurationsraum zu definieren. Die erste Definition, die Sie gegeben haben, ist die Boltzmann-Entropie und gilt nur für isolierte Systeme oder mikrokanonische Ensembles. In einem mikrokanonischen Ensemble sind Zustandsgrößen wie Energie, Teilchenzahl und Volumen festgelegt. Alle Mikrozustände haben also die gleiche Energie und sind gleich wahrscheinlich. Also für alle Mikrozustände J , P J = 1 Ω ; Wo Ω ist die Anzahl aller möglichen Mikrozustände.

Dieser Entropiebegriff kann durch die zugehörigen Legendre-Transformationen für andere Ensembles erweitert werden. Daraus ergibt sich die zweite Definition, die Sie gegeben haben, die Gibbs-Entropie. Das ist eine verallgemeinerte Version der Entropie, die auf alle Ensembles/Systeme anwendbar ist. Diese Definition der Entropie ist identisch mit der dritten Definition, die Sie gegeben haben ( https://doi.org/10.1119/1.1971557 ).

Betrachten Sie für ein halbqualitatives Verständnis die folgende Situation. Du hast N Kisten, N 1 blaue Bälle, N 2 rote Kugeln und gleichfarbige Kugeln sind nicht zu unterscheiden. Auch, N 1 Und N 2 kann solange schwanken N 1 + N 2 = N hält. Angenommen, Sie suchen nach dem Gleichgewichtszustand dieses Systems. Mit Hilfe der Boltzmann-Entropie kann man beweisen, dass der Gleichgewichtszustand vorliegt N 1 = N 2 = N 2 ; denn dieser Makrozustand ist der wahrscheinlichste und entspricht maximaler Entropie. Eine andere Möglichkeit, dies ohne Berechnung zu verstehen, besteht darin, den Makrozustand zu betrachten, der die meisten Mikrozustände oder die höchste Entartung aufweist. Wenn N 1 = N 2 , dann können Sie beim Verteilen auf die maximale Anzahl von Kombinationen vornehmen N Boxen. Wenn dieses System also ergodisch ist, wird es die meiste Zeit damit verbringen, Mikrozustände des erwähnten Makrozustands zu besuchen. Außerdem hat dieser Makrozustand die maximale Informationsmenge, die dieses System haben kann. Mit anderen Worten, die Informationen, die Sie benötigen, um diesen Zustand zu beschreiben, sind mehr als die Informationen, die Sie benötigen, um jeden anderen Zustand zu beschreiben. Daher ist die Gibbs-Entropie das physikalische Analogon der Shannon-Entropie. Die Tatsache, dass Sie mehr Informationen benötigen, bedeutet jedoch nichts über Unordnung. Da Sie dazu eine Definition der Reihenfolge benötigen . Im Gegenteil, man kann die gleiche Anzahl von Kugeln ziemlich plausibel und geordnet finden .

Um es kurz zu machen, bei der Entropie geht es hauptsächlich (wenn nicht alles) um die Umverteilung der verfügbaren Energie, bis Gleichgewichte für alle beschreibbaren Systeme erreicht sind. Nur dann kann das Gleichgewicht erreicht werden.

Siehe https://en.wikipedia.org/wiki/Heat_death_of_the_universe .