Wie beweist man S=−∑plnpS=−∑pln⁡pS=-\sum p\ln p?

Wie beweist man die Formel für die Entropie? S = p ln p ? Offensichtlich sind Systeme auf der mikroskopischen Ebene vollständig durch die mikroskopischen Bewegungsgleichungen bestimmt. Will man also obendrein noch ein Gesetz einführen, muss man Konsistenz beweisen, dh Entropie kann kein Postulat sein. Ich kann mir vorstellen, dass es aus der Wahrscheinlichkeitstheorie für das allgemeine System abgeleitet ist. Kennen Sie eine solche Linie?

Sobald Sie eine solche Argumentation haben, was sind die Annahmen dazu? Können diese Annahmen für spezielle Systeme ungültig sein? Würden diese Systeme nicht der Thermodynamik und der statistischen Mechanik gehorchen und keine Temperatur haben, egal wie allgemein?

Wenn Thermodynamik/stat.mech. sind völlig allgemein, wie würden Sie sie auf das System anwenden, bei dem ein Punktteilchen ein anderes umkreist?

Sie werden wahrscheinlich Informationstheorie erforschen wollen. Dies ist die Shannon-Entropie. Interessanterweise ist es eine Bewegungskonstante für Hamiltonsche Systeme! Sie haben eine sehr interessante Frage, doch die Antwort könnte Bücher füllen.
Die Shannon-Entropie existiert, aber es ist immer noch keine Antwort, warum sie in der Physik verwendet wird. Die Shannon-Entropie hat wahrscheinlich einige Voraussetzungen. Warum also erfüllt die Physik diese Voraussetzungen?
Wie definierst du S ?
Ich denke, der richtige Umriss einer Antwort wäre, mit der klassischen Thermodynamik zu beginnen und zu Carnot / reversibler Wärmekraftmaschine zu gelangen, Entropie als Zustandsfunktion zu finden, bevor Sie sich mit Stat Mech befassen, um sie mikroskopisch zu interpretieren ... Scheint eine große Aufgabe zu sein ...
Das gängige Carnot-Argument würde nicht helfen. Die Frage, wie sie überhaupt mit allen mikroskopischen Vorgängen zusammenhängen soll, wäre nach wie vor offen. Das muss doch schon mal jemand probiert haben? Ich kenne gängige Literatur, aber sie ist dort nicht enthalten :(; S ist das, was die Leute verwenden, um Irreversibilität zu zeigen.
Statistische Physik der Teilchen, Mehran Kardar, Kapitel 2, Abschnitt 7, Seite 50, Information, Entropie und Schätzung

Antworten (4)

Das Theorem wird Theorem zur geräuschlosen Codierung genannt und wird in Büchern zur Informationstheorie oft auf umständliche Weise bewiesen. Der Sinn des Theorems besteht darin, die minimale Anzahl von Bits pro Variable zu berechnen, die Sie benötigen, um die Werte von N identischen Zufallsvariablen zu codieren, aus denen ausgewählt wurde 1... K deren Wahrscheinlichkeiten, einen Wert zu haben ich zwischen 1 und K ist p ich . Die minimale Anzahl von Bits, die Sie im Durchschnitt pro Variable in der großen N-Grenze benötigen, ist als Information in der Zufallsvariablen definiert. Es ist die minimale Anzahl von Informationsbits pro Variable, die Sie in einem Computer aufzeichnen müssen, um sich die Werte der N Kopien mit perfekter Genauigkeit zu merken.

Sind die Variablen gleichverteilt, liegt die Antwort auf der Hand: Es gibt sie K N Möglichkeiten für N Würfe, und 2 C N Möglichkeiten für C N Stückchen, also C = Protokoll 2 ( k ) für große N. Bei weniger als CN-Bits können Sie die Werte der Zufallsvariablen nicht codieren, da sie alle gleich wahrscheinlich sind. Bei mehr als diesem haben Sie zusätzlichen Platz. Dies ist die Information in einer einheitlichen Zufallsvariablen.

Für eine allgemeine Verteilung können Sie die Antwort mit ein wenig Gesetz großer Zahlen erhalten. Wenn Sie viele Kopien der Zufallsvariablen haben, ist die Summe der Wahrscheinlichkeiten gleich 1,

P ( n 1 , n 2 , . . . , n k ) = j = 1 N p n j

Diese Wahrscheinlichkeit wird für große N von solchen Konfigurationen dominiert, bei denen die Anzahl der Werte vom Typ i gleich ist N p ich , da dies die mittlere Zahl der Typen i ist. Damit ist der P-Wert bei jeder typischen Konfiguration:

P ( n 1 , . . . , n k ) = ich = 1 k p ich N p ich = e N p ich Protokoll ( p ich )

Für die Möglichkeiten, bei denen die Wahrscheinlichkeit nicht extrem klein ist, ist die Wahrscheinlichkeit also mehr oder weniger konstant und gleich dem obigen Wert. Die Gesamtzahl M(N) dieser nicht übermäßig unwahrscheinlichen Möglichkeiten ist erforderlich, um die Summe der Wahrscheinlichkeiten gleich 1 zu machen.

M ( N ) e N p ich Protokoll ( p ich )

Um zu codieren, welche der M(N) Möglichkeiten in jeweils N Picks realisiert wird, braucht man also eine Anzahl von Bits B(N), die ausreicht, um alle diese Möglichkeiten zu codieren:

2 B ( N ) e N p ich Protokoll ( p ich )

was bedeutet, dass

B ( N ) N = p ich Protokoll 2 ( p ich )

Und alle untergeordneten Konstanten werden durch die große N-Grenze ausgewaschen. Dies ist die Information, und die obige asymptotische Gleichheit ist das geräuschlose Codierungstheorem von Shannon. Um es rigoros zu machen, brauchen Sie nur einige sorgfältige Grenzen für die Schätzungen großer Zahlen.

Replik Zufälle

Es gibt eine andere interessante Interpretation der Shannon-Entropie in Bezug auf Zufälle. Betrachten Sie die Wahrscheinlichkeit, dass Sie zwei Werte der Zufallsvariablen auswählen und zweimal denselben Wert erhalten:

P 2 = p ich 2

Dies ist eindeutig eine Schätzung, wie viele verschiedene Werte zur Auswahl stehen. Wenn Sie fragen, wie groß die Wahrscheinlichkeit ist, dass Sie in k-Würfen k-mal denselben Wert erhalten, ist es so

P k = p ich p ich k 1

Wenn Sie fragen, wie hoch ist die Wahrscheinlichkeit eines Zufalls danach k = 1 + ϵ wirft, erhalten Sie die Shannon-Entropie. Das ist wie der Replik-Trick, also denke ich, dass es gut ist, sich daran zu erinnern.

Entropie aus Informationen

Um die statistische Mechanik aus den Shannon-Informationen wiederherzustellen, erhalten Sie Folgendes:

  • die Werte der makroskopischen Erhaltungsgrößen (oder ihrer thermodynamischen Konjugate), Energie, Impuls, Drehimpuls, Ladung und Teilchenzahl
  • die makroskopischen Einschränkungen (oder ihre thermodynamischen Konjugate), Volumen, Positionen makroskopischer Objekte usw.

Dann ist die statistische Verteilung der mikroskopischen Konfiguration die maximale Entropieverteilung (so wenig Ihnen bekannte Informationen wie möglich) im Phasenraum, die die Bedingung erfüllt, dass die Größen mit den makroskopischen Größen übereinstimmen.

Der letzte Abschnitt befasst sich mit dem Gleichgewichtsstatus. mech, und es wäre schön, das ausdrücklich anzuerkennen, denn es gibt eine Menge Literatur zur Verwendung der Informationstheorie für Nichtgleichgewichtsstatistiken. mech. Früher war ich sehr verwirrt darüber, wie letzteres funktioniert, weil es so aussah, als würde man versuchen, etwas umsonst zu bekommen – wirkliche Nichtgleichgewichtszustände können unendlich komplex sein. Ich habe schließlich (über Jaynes) begriffen, dass man die Gleichgewichtsbedingung durch "reproduzierbar" ersetzen kann, und eigentlich meint man sowieso immer letzteres. (Fortsetzung)
(Fortsetzung) Dies pusht stat. mech, um einen eher schlussfolgernden Geschmack zu haben, der wahrscheinlich besser zur Frage des OP passt. Der Punkt ist, dass wir Experimente durchführen und herausfinden, dass einige experimentelle Kontrollen für einige Ergebnisse ausreichen – es ist dann einfach logisch, dass es genügend Beziehungen zwischen ihnen gibt, um das makroskopische Verhalten zu spezifizieren. Wenn wir dann das mikroskopische Verhalten kennen, können wir dieses Spiel der maximalen Entropie spielen und die statistische Mechanik des Experiments ableiten.
@genneth: Ich würde das tun, wenn ich dachte, es gäbe ein einziges Beispiel, bei dem diese Beschreibung funktioniert. Kennst du irgendein System? Die einzigen maximalen Entropieverteilungen, die ich kenne, sind im Gleichgewicht Stat-Mech. Überall sonst ist es nur eine schreckliche nullte Annäherung.
bayes.wustl.edu/etj/articles/stand.on.entropy.pdf ist lang, aber ziemlich gut. Es hat am Ende einen langen Abschnitt, in dem die Kubo-Transportbeziehungen zu Termen höherer Ordnung verallgemeinert werden, und es ist wahrscheinlich das sauberste, das ich je gesehen habe. Ein prosaischeres Spielzeugbeispiel ist ein präzedierender Spin – nehmen Sie an, dass Sie den transversalen Spin für eine Weile beobachten, dann können Sie die Nichtgleichgewichtsdichtematrix konstruieren, die diese Bewegung hat. Selbst in der Nähe des Gleichgewichts ist es beispielsweise schwierig, einen Zustand mit einem bestimmten Strom anderweitig korrekt zu konstruieren.
Das ist ziemlich interessant! Es verfehlt jedoch die Frage :( Es beantwortet nicht, warum ich Entropie auf ein System anwenden sollte, das bereits vollständig durch andere Gesetze bestimmt ist. Warum sollte ich annehmen, dass ein System die maximale Entropieverteilung ist? Das muss man beweisen. Und es sollte auch kein handgewelltes Argument sein.Auch der 2. und 3. Absatz meiner Frage wird ausgelassen.Viele Leute behaupten, dass einfach alles der Entropie folgt (schwarze Löcher, Leben, ...).OK, also habe ich ein Teilchen einen anderen umkreisen. Was sind p_i? Was ist die Entropie?
@Gerenuk: Ihre Intuition dazu ist fehlerhaft, weil Sie an die Situation gewöhnt sind, in der Sie das Teilchen sehen können , und daher jederzeit wissen, wo es sich befindet und wie schnell es sich bewegt. Wenn Sie nicht wissen, wo sich das Teilchen befindet, ist dem Teilchen eine Entropie zugeordnet, und die p_i sind ap (x, v), um es an jeder Position und Geschwindigkeit zu finden. Die Gesetze der Entropie von Schwarzen Löchern sind anders, und Leben hat nichts mit Entropie zu tun (aber es verletzt sie nicht).
@Gerenuk: Sie sollten auch die Jaynes-Referenz lesen, die Genneth bereitgestellt hat, insbesondere die philosophische Antwort auf den Einwand "etwas aus dem Nichts" gegen Argumente mit maximaler Entropie.
@Ron: Ich sage nicht, dass du falsch liegst. Ich sage, Sie haben einfach keine Antwort auf die Frage gegeben. Und ich habe die Erfahrung gemacht, dass generell Leute, die ihre Antwort entweder mit „Es ist sehr einfach und bekannt“ oder „Ich weiß, wo du falsch liegst“ die Frage meist nicht verstanden haben. Fühlen Sie sich frei, meine Beiträge Wort für Wort zu überprüfen.
@Gerenuk: Ich weiß, wo du falsch liegst, und die Antwort ist sehr einfach und bekannt. Es wird vollständig in der Referenz von Jaynes behandelt, und ich habe dem nichts mehr hinzuzufügen. Das, was ich oben geschrieben habe, ist etwas, das an vielen Stellen nicht vorkommt, nämlich eine gute einfache Erklärung für geräuschloses Codieren, weil dies gerechtfertigt ist p Protokoll ( p ) . Alles andere ist Philosophie, und Jaynes erklärt es gut (im obigen Link).
Ich finde diese Erklärung erstaunlich klar. Diese Welt ist falsch, wenn Sie nicht an einer Universität lehren.
@Eduardo: Im amerikanischen Kapitalismus unterrichten Leute wie ich nicht an Universitäten – wir haben Glück, wenn wir nicht obdachlos sind. Die amerikanische Oberschicht lehrt an Universitäten, und diese besteht aus einer besonderen Sorte hirntoter Politiker, die Jefferson die „natürliche Aristokratie“ nannte. Dies ist das reiche Segment der Gesellschaft, und ich habe nie verstanden, wofür sie gut sind. Aus diesem Grund haben die USA im Grunde keine einheimische wissenschaftliche Tradition, von der sie sprechen könnten, abgesehen davon, dass sie den Sowjets nacheiferten, die vor 50 Jahren verlangten, Menschen aus der unteren Klasse wie Feynman, Gell-Mann, Susskind vorübergehend in die Elite zu lassen.
... Ich werde nicht Teil einer Elite sein, da ich nicht an Eliten glaube. Ich werde eine Universitätslehrstelle nur annehmen, wenn sie zustimmen, mir <40.000 zu zahlen, und mir keinen Status oder Anerkennung geben. Dies kann nicht passieren, da es eine Machtverwässerung von Universitätsprofessoren ist, die sich in dieser Gesellschaft sehr bemühen, in die Oberschicht vorzudringen. Deshalb sind sie inkompetent . Man kann nicht gleichzeitig Wissenschaft betreiben und in der Oberschicht sein. Sie sind unvereinbare Aktivitäten.

Die beste (IMHO) Ableitung der p Protokoll p Formel aus Grundpostulaten ist die ursprünglich von Shannon gegebene:

Shannon (1948) Eine mathematische Theorie der Kommunikation. Technisches Journal für Bell-Systeme. http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6773024

Shannon befasste sich jedoch nicht mit Physik, sondern mit Telegrafie, sodass sein Beweis eher im Kontext der Informationsübertragung als der statistischen Mechanik erscheint. Um die Relevanz von Shannons Arbeit für die Physik zu sehen, sind die besten Referenzen Artikel von Edwin Jaynes. Er schrieb Dutzende von Artikeln zu diesem Thema. Mein Favorit ist der zugegebenermaßen ziemlich lange

Jaynes, ET, 1979, „Wo stehen wir bei maximaler Entropie?“ in The Maximum Entropy Formalism, RD Levine und M. Tribus (Hrsg.), MIT Press, Cambridge, MA, p. fünfzehn; http://bayes.wustl.edu/etj/articles/stand.on.entropy.pdf

Die funktionale Form der Entropie S = p ln p kann verstanden werden, wenn man voraussetzt, dass die Entropie extensiv ist und von den mikroskopischen Zustandswahrscheinlichkeiten abhängt p .

Betrachten Sie ein System S EIN B bestehend aus zwei unabhängigen Teilsystemen A und B. Dann S EIN B = S EIN + S B und p EIN B = p EIN p B da A und B entkoppelt sind.

S EIN B = p EIN B ln p EIN B = p EIN p B ln p EIN p EIN p B ln p B

= p EIN ln p EIN p B ln p B = S EIN + S B
Dieses Argument gilt bis auf einen Faktor, der sich als Boltzmann-Konstante herausstellt k B in der statistischen Mechanik: S = k B p ln p was Gibbs zu verdanken ist, lange vor Shannon.

Hervorragende Antwort, sicherlich die beste, da sie für alles gilt (Von-Neumann-Entropie, Shannon-Entropie, Boltzmann-Gibbs-Entropie). Trotzdem haben Sie einen wichtigen Punkt vergessen: Sie brauchen S auch begrenzt und positiv sein (aus dem gleichen Grund, aus dem ein Volumen bei einer thermodynamischen Potentialausdehnung begrenzt und positiv sein sollte). Ansonsten definieren S ln p erledigt bereits die Arbeit der Extensivität, des Minuszeichens und der Struktur p ln p kommt von der Positivitätsanforderung bzw. der Begrenztheit.

Aus rein physikalischer Sicht ist dies die Gibbs-Entropie eines Systems. Erstens, obwohl das Konzept der Entropie erweitert werden kann, diskutieren wir normalerweise über Gleichgewichtsthermodynamik, und hier wird die Gibbs-Entropie sicherlich zuerst eingeführt.

Sie haben natürlich Recht, dass die Dynamik technisch durch ihre Bewegungsgleichungen vollständig beschrieben werden könnte, aber dann wäre das Thema Thermodynamik nicht wirklich nötig. Ich meine, die Thermodynamik ist in gewisser Weise nicht so "fundamental" wie andere Fächer der Physik, da sie nicht versucht, eine vollständige Beschreibung von allem zu gebenüber das System, das Sie studieren. Normalerweise diskutieren Sie große Systeme (und suchen daher nach makroskopischen Eigenschaften) oder kleine Systeme, die mit einer großen Umgebung interagieren. (z. B. macht es keinen großen Sinn, über die Temperatur eines Elektrons zu sprechen) In Wirklichkeit ist es völlig unpraktisch, nach einer deterministischen Beschreibung solcher Systeme zu suchen (auch ohne Chaostheorie und Quantenmechanik die Anzahl der Gleichungen wäre einfach zu enorm) und so nutzt man die Thermodynamik.

Bei der statistischen Gleichgewichtsthermodynamik (die nach einer Rechtfertigung der klassischen Thermodynamik auf der Grundlage von Mittelwerten einer mikroskopischen Beschreibung sucht) beginnt man mit dem Prinzip gleicher a priori Wahrscheinlichkeiten, das für ein isoliertes System, das lange Zeit in Ruhe gelassen wurde (vage, aber im Grunde, dass es im Gleichgewicht ist), ist jeder dem System zur Verfügung stehende Mikrozustand mit gleicher Wahrscheinlichkeit besetzt. Dies ist eine große Annahme, und es gibt viele Leute, die sie gerne richtig begründen könnten, aber sie wird oft mit Symmetrie argumentiert (mit den Informationen, die Sie haben, gibt es keinen Grund anzunehmen, dass ein bestimmter Mikrozustand wahrscheinlicher wäre als andere). Mehr noch, es funktioniert einfach.

Die Entropie eines isolierten Systems wurde dann postuliert S = k   l n ( Ω ) von Boltzmann wo Ω ist die Anzahl der Mikrozustände, die dem System zur Verfügung stehen (es ist einfacher, dies aufzubauen, wenn eine diskrete Anzahl von Mikrozuständen angenommen wird, insbesondere wenn Sie über Boltzmann / Gibbs-Entropie sprechen). Es ist ein Postulat, aber es muss mit der klassischen thermodynamischen Entropie übereinstimmen. Die Gibbs-Entropie ist eine natürliche Erweiterung davon, wenn Sie Systeme betrachten, die in thermischem Kontakt mit einer Umgebung stehen und die Mikrozustandswahrscheinlichkeiten nicht mehr gleich sind. Sie können zeigen, dass es mit der klassischen thermodynamischen Entropie für eine Reihe von Systemen übereinstimmt und wirklich zeigt, wie Entropie als Maß für die Unsicherheit über die mikroskopischen Details des Systems angesehen werden kann.