Gibbs HHH-Theorem verstehen: Woher kommt Jaynes' "verschwommenes" Argument?

Laut diesem Wikipedia-Artikel ist die H -Theorem war Boltzmanns Versuch, die irreversible Zunahme der Entropie in einem geschlossenen System ausgehend von der reversiblen mikroskopischen Mechanik nachzuweisen. Gegen seinen ursprünglichen Ansatz wurde jedoch offenbar eine Reihe von Einwänden erhoben (siehe Abschnitt „Kritik an der H -Theorem"), daher gibt es wahrscheinlich auch heute noch eine Kontroverse. Der Artikel beschreibt auch den Versuch von Gibbs, dasselbe Ziel zu erreichen (siehe Abschnitt "Gibbs' H -Theorem"). An dieser Stelle wendet sich die Diskussion einer modernen Version des Theorems zu, einschließlich eines ziemlich seltsamen "verschwommenen" Arguments, das ich nicht sicher richtig verstehe (und das nicht ganz schlüssig zu sein scheint, zumindest nach dem, was man in diesem Artikel lesen kann. Ich zitiere (und ich gehe davon aus, dass diese Darstellung des Arguments nicht sehr streng ist):

Der kritische Punkt des Theorems ist also: Wenn die Feinstruktur in dem aufgewühlten Ensemble aus irgendwelchen Gründen ganz leicht verwischt wird, dann nimmt die Gibbs-Entropie zu und das Ensemble wird ein Gleichgewichts-Ensemble. Warum diese Unschärfe in der Realität auftreten sollte, gibt es eine Vielzahl von vorgeschlagenen Mechanismen. Ein vorgeschlagener Mechanismus ist beispielsweise, dass der Phasenraum aus irgendeinem Grund grobkörnig ist (analog zur Pixelisierung in der in der Abbildung gezeigten Simulation des Phasenraums). [...] Edwin Thompson Jaynes argumentierte, dass die Unschärfe subjektiver Natur sei und einfach einem Wissensverlust über den Zustand des Systems entspreche. In jedem Fall, wie auch immer er auftritt, ist die Erhöhung der Gibbs-Entropie irreversibel, vorausgesetzt, die Unschärfe kann nicht rückgängig gemacht werden.

Mein Hauptanliegen ist: Kommt diese Verwischung/Wissensverlust von einem bekannten physikalischen Gesetz/Prinzip? Zum Beispiel sollten wir die Quantisierung des Phasenraums mit verknüpfen Δ X Δ P 2 , oder zu einer Art Beobachtereffekt? Ich glaube nicht, dass dies der Grund ist, da dieses Prinzip nur im Kontext der Quantenmechanik gelten sollte, aber ich kenne keinen ähnlichen (halb-)klassischen Mechanismus, der in Betracht gezogen werden könnte.

Allgemeiner gesagt, wird die Quantenmechanik benötigt (wie in dieser Antwort auf eine verwandte Frage vorgeschlagen), um vollständig zu erklären, wie die irreversible Dynamik, die in der Natur auf makroskopischer Ebene beobachtet wird, aus reversiblen Gesetzen hervorgeht?

Antworten (2)

Mein Hauptanliegen ist: Kommt diese Verwischung/Wissensverlust von einem bekannten physikalischen Gesetz/Prinzip? Sollen wir zum Beispiel die Quantisierung des Phasenraums mit ΔxΔp≥ℏ2ΔxΔp≥ℏ2 oder mit einer Art Beobachtereffekt verknüpfen?

Die Beschreibung im Wikipedia-Artikel ist falsch informiert und irreführend. Das Verwischen oder Grobkörnen ist nur ein möglicher formaler Mechanismus H Abnahme der Zeit in der (Boltzmannian) H -Satz.

Dieses Verfahren führt einen künstlichen Maßstab ein, unterhalb dessen Details verworfen werden, und hat daher wenig mit Mechanik zu tun, wo nichts verworfen wird, oder dem 2. Hauptsatz der Thermodynamik, wo uns solche Details überhaupt nicht interessieren (wir verwenden nur makroskopische Zustandsvariablen).

Auch H (eine Funktion der Wahrscheinlichkeiten und damit der Zeit) steht in keinem einfachen Zusammenhang mit der thermodynamischen Entropie (Funktion makroskopischer Zustandsvariablen).

Tatsächlich gibt es keine Verwischung der Wahrscheinlichkeitsfunktion, die zur Erklärung des 2. Hauptsatzes benötigt wird. Jaynes hat gezeigt, wie man die Entropieformulierung des 2. Hauptsatzes für thermisch isolierte Systeme ohne jegliche Unschärfe herleiten kann, nur unter Verwendung der Hamiltonschen Mechanik, des Prinzips der maximalen Informationsentropie und der Annahme, dass Ergebnisse makroskopischer Experimente wiederholbar sind.

Lassen Sie das System sich aus dem thermodynamischen Gleichgewichtszustand entwickeln A in den thermodynamischen Gleichgewichtszustand B . Wir werden den gesamten Prozess auch mittels Wahrscheinlichkeitsdichte beschreiben ρ ( T ) , ab Zeit T A mit Initialfunktion ρ ( T A ) und endet mit der Zeit T B . Die anfängliche Dichte ρ ( T A ) kann alles sein, solange es die Beschränkungen des Makrozustands respektiert A . Die nachfolgenden Dichten ρ ( T ) für T T A , werden jedoch vollständig durch den Hamiltonoperator und die Anfangsbedingung bestimmt; wir sind nicht frei, sie zu wählen.

Aufgrund des Liouville-Theorems ist die Informationsentropie (oft als Gibbs-Entropie bezeichnet)

ICH [ ρ ] = ρ ln ρ D Q D P

bleibt zeitlich konstant, es gibt kein Verwischen ρ jeglicher Art . (1)

Es wird die thermodynamische Entropie im endgültigen Gleichgewichtszustand gezeigt S B größer oder gleich der anfänglichen thermodynamischen Entropie ist S A .

Dieses Ergebnis ist möglich, weil die thermodynamische Entropie eines Makrozustands im Allgemeinen nicht einfach proportional zur Informationsentropie der zeitabhängigen Wahrscheinlichkeitsverteilung ist ρ ( T ) . Seine Beziehung zum Konzept der Informationsentropie ist folgende:

Wert der thermodynamischen Entropie des Makrozustands X ist durch den Wert der Informationsentropie für diese Wahrscheinlichkeitsverteilung gegeben ρ X , die beide mit dem Makrozustand übereinstimmen X und gibt der Informationsentropie den maximal möglichen Wert . (2)

Nun, offensichtlich ρ ( T B ) stimmt mit dem Makrozustand überein B Aber ICH [ ρ ( T B ) ] ist nicht unbedingt der maximal mögliche Wert von ICH für alle ρ ist mit dem Makrozustand kompatibel B .

Die Wahrscheinlichkeitsdichte, die nicht nur mit dem Makrozustand übereinstimmt B aber auch maximiert die Informationsentropie ist im Allgemeinen anders aus ρ ( T B ) . Lassen Sie uns diese Maximierungsdichte als bezeichnen ρ B ; dann ist das Verhältnis der beiden Informationsentropien

ICH [ ρ B ] ICH [ ρ ( T B ) ] .

Nun, basierend auf (2) können wir dies schreiben als

S B ICH [ ρ ( T B ) ] ,
das heißt, die thermodynamische Entropie im endgültigen Gleichgewichtszustand ist höher oder gleich der Informationsentropie der entwickelten Wahrscheinlichkeitsverteilung.

Basierend auf (1) können wir dies auch schreiben als

S B ICH [ ρ ( T A ) ] .

Dies bedeutet, dass unabhängig von der Dichte ρ ( T A ) gewählt, um den Makrozustand zu beschreiben A , thermodynamische Entropie des Endzustandes B gleich oder höher ist als die Informationsentropie von ρ ( T A ) . Und so, wenn die Dichte ρ A wird so gewählt, dass es maximiert wird ICH unter Einschränkungen des anfänglichen Makrozustands A , ICH erreicht den Wert der thermodynamischen Entropie S A und wir erhalten die Ungleichung

S B S A .

Das bedeutet, dass wir die Entropieformulierung des 2. Hauptsatzes der Thermodynamik aus dem Prinzip der maximalen Informationsentropie abgeleitet haben, wobei wir die Konstanz der Gibbs-Entropie als einen der Bestandteile verwendet haben.

Allgemeiner gesagt, wird die Quantenmechanik benötigt (wie in dieser Antwort auf eine verwandte Frage vorgeschlagen), um vollständig zu erklären, wie die irreversible Dynamik, die in der Natur auf makroskopischer Ebene beobachtet wird, aus reversiblen Gesetzen hervorgeht?

Wollte man den Vorgang bis auf die Elementarteilchen vollständig erklären, bräuchte man eine Theorie dieser Teilchen wie die Quantentheorie. Aber wenn das Ziel lediglich darin besteht zu zeigen, dass die irreversible Evolution makroskopischer Variablen mit der reversiblen Evolution mikroskopischer Variablen vereinbar ist, dann lautet die Antwort nein.

So wie ich es verstehe, ist das Prinzip der maximalen Informationsentropie ein nützlicher Ausgangspunkt, um Vorhersagen über ein System zu treffen, über das Sie sehr wenig wissen (das später mit Experimenten verglichen werden kann, um das Modell iterativ zu verfeinern). Wenn man sich zu sehr auf Perspektiven maximaler Unsicherheit verlässt, wird es schwierig, die Bedeutung der Dynamik in der statistischen Mechanik und das Versagen einiger Systeme mit einer großen Anzahl von Erhaltungsgrößen (z. B. Solitonen) zu würdigen, sich mit der mit dem kanonischen Ensemble verbundenen Verteilung ins Gleichgewicht zu bringen. Es würde mich interessieren, Ihre Gedanken zu hören.
Natürlich gibt es keine Garantie dafür, dass das Maxent-Prinzip immer gut funktioniert. Aber in der Ansicht, die ich oben erklärt habe, entwickelt sich die Wahrscheinlichkeitsverteilung nicht zur kanonischen (äquilibriert), sie wird von den Bewegungsgleichungen bestimmt. Die kanonische Verteilung ist einfach am besten zu verwenden, wenn wir nur die makroskopischen Einschränkungen kennen.
Eine interessante Antwort, die einige meiner Missverständnisse gelöst hat, danke! Nur um mich klarzustellen, ist Boltzmanns H dann dasselbe wie die Informationsentropie?
@DavidHerreroMartí, gerne geschehen. Boltzmann H Die Funktion ist ursprünglich als Funktion der Wahrscheinlichkeitsdichte definiert, die auf dem 6-dimensionalen Zustandsraum eines einzelnen Moleküls definiert ist (die unabhängigen Dimensionen sind auf 3 Koordinaten und 3 Geschwindigkeitskomponenten des Moleküls zurückzuführen). Informationsentropie im Allgemeinen ist viel allgemeiner als das, sie bezieht sich auf jede Wahrscheinlichkeitsverteilung auf jedem Raum. In der obigen Erläuterung ist die Informationsentropie die sogenannte "Gibbs-Entropie" und bezieht sich auf die Wahrscheinlichkeitsverteilung ρ auf dem Phasenraum des Gesamtsystems definiert. Es sind also sehr unterschiedliche Dinge.
Ich stimme zu, dass Jaynes' Herleitung des zweiten Hauptsatzes ziemlich elegant ist und keine besonderen Annahmen über die mikroskopische Dynamik erfordert. Es scheint jedoch ähnlich wie viele andere Ableitungen zu Loschmidts Paradoxon zu führen: Jan, obwohl Sie ausdrücklich angegeben haben, dass t_B nach t_A liegt, können wir das ändern und sagen, dass t_B früher als t_A ist, und alles in Ihrer Argumentation gilt immer noch. Dynamisch beginnen wir mit einer Endbedingung, die sich eindeutig von t_A nach t_B entwickelt. Mit den gleichen Argumenten wie oben leiten wir ab, dass die thermodynamische Entropie in der Vergangenheit gleich oder höher ist als in der Gegenwart
@Martin_S das ist ein fairer Punkt. Die Ableitung von Jaynes geht jedoch davon aus, dass sich "das System in vielen Experimenten konsistent vom thermodynamischen Gleichgewichtszustand A zum thermodynamischen Gleichgewichtszustand B entwickelt". Das Theorem lautet also wirklich: Wenn sich B in Experimenten konsistent aus A entwickelt, dann S B S A . Allein die Tatsache, dass A wird gefolgt von B und nicht durch einen anderen extrem unwahrscheinlichen Zustand mit geringerer Entropie nicht abgeleitet werden kann. Die Möglichkeit einer solchen unwahrscheinlichen Entwicklung ist vorhanden.

Das zugrunde liegende physikalische Prinzip ist die endliche Auflösung jedes Experiments, unabhängig vom Wert von , zusammen mit der Kopplung zwischen beobachtbaren und mikroskopischen Freiheitsgraden, dh es gilt sowohl für klassische als auch für Quantensysteme. Technisch gesehen sind Energieeinsparung und Liouvilles Theorem oder Unitarität in QM ebenfalls erforderlich, um zu verhindern, dass unterschiedliche Trajektorien zu einer Art Attraktor zusammenbrechen. Klassischerweise folgt das Ergebnis aus der Empfindlichkeit gegenüber Anfangsbedingungen und der Tatsache, dass die meisten Systeme eine relativ kleine Anzahl global konservierter Größen haben (für eine wichtige Ausnahme siehe das Fermi-Pasta-Ulam-Problem ). Die Abschaltung von Δ X Δ P / 2 ist aufgrund unserer zusätzlichen empirischen Erkenntnisse nur natürlich, dass die Auflösung beliebigerDie klassische Beschreibung bricht bei dieser Skala zusammen. Wenn wir ein gewöhnliches Lineal zum Messen der Position, ein Pendel zum Messen der Zeit und die Gleichgewichtsverschiebung einer festen Feder zum Messen der Kräfte verwenden würden, dann wären unsere Auflösung und Vorhersagekraft durch die Genauigkeit des Lineals und des Pendels begrenzt. In der Quantenmechanik impliziert die endliche Auflösung jedes Experiments, dass jede anfängliche Messung Freiheitsgrade ignoriert, die mit kleinen Skalen verbunden sind. Diese Freiheitsgrade haben normalerweise keinen signifikanten Einfluss auf Trajektorien über kurze Zeitskalen, führen aber kumulativ zu einem scheinbaren Verlust der Einheitlichkeit über lange Zeiträume. In der Kernspinresonanz können Sie den Zustand eines einzelnen Spins kurz nach dem Anlegen eines Impulses mit angemessener Genauigkeit vorhersagen, aber im Laufe der Zeit,

Sowohl in der klassischen als auch in der Quantendynamik kann man sich die Zunahme der Entropie so vorstellen, dass sie von unvollständigen Anfangsdaten herrührt: Wenn die fehlende Information experimentell zugänglich wird, führt dies zu einem Fehlerterm oder einer Shannon/von Neumann-Entropie ungleich Null, die mit dem Beobachtbaren verbunden ist Teil des Systems.

Allerdings stört mich etwas immer noch ein wenig: der Unterschied zwischen Thermodynamik und Informationsentropie. Wie kann aus einem subjektiven, beobachterabhängigen Effekt etwas so „Objektives“ wie die thermodynamische Entropie entstehen? Übersehe ich etwas?
Die thermodynamische Entropie ist bis zu einem gewissen Grad beobachterabhängig. Das Gibbs-Paradoxon wird normalerweise in Bezug auf identische oder nicht unterscheidbare Partikel erklärt, aber es gilt auch für unterscheidbare Partikel, die nicht unterschieden werden ( ein sehr passender Begriff, den ich zuerst von James Sethna in seinem Stat-Mech-Lehrbuch gesehen habe), entweder weil das Experiment nicht unterscheiden kann den Partikeln, oder weil es selbst bei sichtbaren Unterschieden zwischen den Partikeln nahezu unmöglich wäre, die Unterschiede im osmotischen Druck zu nutzen, um Arbeit zu extrahieren.