Entropie: subjektiver Mangel an Wissen, der zu objektiven Schlussfolgerungen führt

Es gibt etwas, was ich wirklich nicht über Entropie verstehe.

Betrachten wir ein klassisches System (hier nicht die Quantenmechanik).

Wir können die Entropie eines Systems über die Formel berechnen

S = l P l L Ö G ( P l )
Wo P l ist die Wahrscheinlichkeit, die Systemstudien in der Konfiguration zu finden l .

Wenn wir mit einem Thermostat im Gleichgewicht arbeiten, können wir zum Beispiel haben

P l = e β E l / Z .

Aber die Sache ist, dass diese Wahrscheinlichkeit, das System in einem bestimmten Zustand zu finden, rein subjektiv ist. Da die Bewegungsgleichung "zu schwer" zu lösen ist, verwenden wir einen probabilistischen Ansatz.

Aber aus dieser subjektiven Sicht können wir an objektive Größen anknüpfen, allerdings, wenn ich eine umkehrbare Transformation annehme, die ich hätte Q = k B T Δ S : die Wärme, die das System erhält, wenn er seine Entropie ändert Δ S .

Zusammenfassend also: Wie ist es möglich, dass ein subjektiver Begriff wie die Entropie zu einem objektiven Schluss wie der Wärmeübertragung führt?

Ich habe hier eine ähnliche Frage gestellt .
Man kann die Entropie eines Systems auch für eine Computersimulation berechnen, wo alles bekannt ist.
Ich verstehe nicht, wie Dinge probabilistisch zu tun bedeutet, dass sie subjektiv sind. Solange Sie Ihr System als Hamiltonian ausdrücken können, können Sie den Satz von Liouville anwenden, um die Wahrscheinlichkeitsdichte objektiv zu erhalten: Physics.stackexchange.com/questions/76028/…
@probably_someone Sie müssen sich jedoch noch für die anfängliche Wahrscheinlichkeitsverteilung entscheiden . Mit dem Satz von Liouville können Sie es einfach rechtzeitig weiterentwickeln.
@DominicElse Das kann auch objektiv gemacht werden: Lassen Sie es einfach eine Delta-Funktion bei Ihren Anfangsbedingungen sein (oder, wenn Ihre Anfangsbedingungen eine gewisse Unsicherheit aufweisen, dann schmieren Sie entsprechend).
@probably_someone Nun, die Anfangsbedingungen haben für makroskopische Systeme immer Unsicherheiten (wir kennen sicherlich nicht die Positionen und Geschwindigkeiten jedes Teilchens). Aber wie man eine Wahrscheinlichkeitsverteilung zuweist, um diese Unsicherheit zu charakterisieren, ist der potenziell subjektive Teil.
@DominicElse Gibt es in diesem Fall einen Teil der Physik, der nicht subjektiv ist? Die Charakterisierung der Unsicherheit ist Ihrer Definition nach immer subjektiv, und jede von uns durchgeführte Messung ist mit Unsicherheit behaftet. Die theoretische Physik stützt sich auf diese subjektiven Ergebnisse, kann also auch nicht objektiv sein. Inwiefern ist also an diesem Punkt eine sinnvolle Unterscheidung zwischen objektiv und subjektiv?
@probably_someone Meine Antwort skizziert, inwiefern die thermodynamische Entropie (nicht dasselbe wie Informationsentropie) objektiv ist. Das ist derjenige, der experimentelle Vorhersagen liefert, nicht die Informationsentropie.
Die statistische Mechanik verlässt sich NICHT auf unsere eigene Subjektivität, um die relevante Verteilung bereitzustellen, sie verlässt sich auf die ergodische Hypothese!
@DominicElse Ah, also ist etwas "objektiv", wenn es experimentelle Vorhersagen gibt. Dann ist in diesem Fall die objektiv richtige Anfangsverteilung auszuwählen, die Ihre Messungen am besten vorhersagt.
@DominicElse Auch die Informationsentropie kann experimentelle Vorhersagen liefern. Die Überprüfung der Nyquist-Rate, die sich für ihren Beweis auf die Informationsentropie stützt, ist eine Methode, mit der die Informationsentropie experimentelle Vorhersagen macht.
Sie könnten an meiner Antwort auf eine verwandte Frage interessiert sein: physical.stackexchange.com/questions/145795/…

Antworten (1)

Die Informationsentropie ist subjektiv, die thermodynamische Entropie jedoch nicht. Dies ist wichtig zu betonen, da die beiden Konzepte oft verwechselt werden (und tatsächlich eng miteinander verwandt, aber nicht dasselbe sind).

Die thermodynamische Entropie ist definiert als die höchstmögliche Informationsentropie über alle Wahrscheinlichkeitsverteilungen, die mit den uns zugänglichen Informationen (also Informationen über makroskopische Größen wie Temperatur, Druck...) konsistent sind. Sie ist damit ein Maß für die „fehlende Information“, die mit den uns nicht zugänglichen Freiheitsgraden verbunden ist.

Im Allgemeinen haben die statistischen Ensembles, die wir normalerweise verwenden (mikrokanonisch, kanonisch usw.), die Eigenschaft, dass sie die Informationsentropie unter Berücksichtigung der Beschränkungen der uns zugänglichen Informationen maximieren. Also für diese Ensembles, und nur für dieseEnsembles ist die Informationsentropie gleich der thermodynamischen Entropie. Wenn wir jedoch wollten, könnten wir versuchen, die ungefähren Positionen/Geschwindigkeiten aller Teilchen zu erraten, und so eine viel spitzere Wahrscheinlichkeitsverteilung als die herkömmliche zuweisen. In diesem Fall wäre die Informationsentropie nicht gleich der thermodynamischen Entropie, diese aber unverändert. (Ein besseres Beispiel wäre, wenn wir zufällig etwas über den Anfangszustand wüssten – zum Beispiel, dass sich alle Teilchen in einem Gas in einer Kiste ursprünglich auf einer Seite der Kiste befanden. Dann zumindest im Prinzip, könnten wir die Wahrscheinlichkeitsverteilung rechtzeitig weiterentwickeln, um die endgültige Verteilung zu finden, die nicht mit der kanonischen Gesamtheit identisch wäre. Selbst wenn wir dies (sehr schwer) tun könnten, entscheiden wir uns jedoch im Allgemeinen nicht dafür, diese Informationen zu verwenden, sodass wir sie für experimentelle Vorhersagen immer noch als „Informationen, die uns nicht zugänglich sind“) behandeln können.

Hinweis: Es gibt noch eine gewisse Freiheit bei der Definition der thermodynamischen Entropie, verbunden mit dem, was wir unter "uns zugänglichen Informationen" verstehen. Es ist wahrscheinlich nicht richtig, dies "Subjektivität" zu nennen, aber Jaynes [1] hat einige faszinierende Gedankenexperimente entwickelt, bei denen die Definition der Entropie davon abhängt, ob wir in der Lage sind, auf die inneren Freiheitsgrade einer hypothetischen Art von Atom zuzugreifen oder nicht . Wenn wir die Möglichkeit haben, auf diese internen Freiheitsgrade zuzugreifen, uns aber dagegen entscheiden, dann gibt es mehrere Definitionen von Entropie, die wir verwenden dürfen. Es ist interessant darüber nachzudenken, wie dies mit Aussagen wie vereinbar ist

wenn ich eine umkehrbare Transformation annehme, hätte ich Q = k B T Δ S : die Wärme, die das System erhält, wenn er seine Entropie ändert Δ S .

Die Antwort ist, dass „reversibel“ so definiert ist, dass es einen Prozess bezeichnet, bei dem die gesamte Entropie des Universums erhalten bleibt – daher hängt es von der Definition der Entropie ab, welche Prozesse wir als reversibel bezeichnen.

[1] http://www.damtp.cam.ac.uk/user/tong/statphys/jaynes.pdf

Weitere Informationen zu diesem Standpunkt zur thermodynamischen Entropie finden Sie unter https://aapt.scitation.org/doi/10.1119/1.1971557 ("thermodynamische Entropie" wird in diesem Artikel als "experimentelle Entropie" bezeichnet).

Kommentare sind nicht für längere Diskussionen gedacht; diese Konversation wurde in den Chat verschoben .