Erscheint der Erfolg der statistischen Physik nicht etwas unvernünftig?

Es scheint mir ein ziemlich großer Zufall zu sein, dass die statistische Physik so gut funktioniert.

Ich kann sehen, wie konsistente makroskopische Beobachtungen auftreten können, nur weil die Mikrozustände, die dieses Verhalten hervorrufen, mit überwältigender Wahrscheinlichkeit wahrscheinlicher sind als andere Mikrozustände. Und ich kann sehen, dass das Wort „wahrscheinlich“ hier wirklich nur eine Aussage darüber ist, dass es viel mehr Möglichkeiten für Teilchen in einem System gibt, (zum Beispiel) Energie gleichmäßig zu teilen, als dass ein Teilchen das meiste davon hat, also alles gegeben Arten von komplexen Interaktionen findet sich das System meist in einem einheitlicheren Zustand wieder.

Angenommen, ein System befindet sich zu einem bestimmten Zeitpunkt in einem bestimmten Mikrozustand T 1 , zu diesem Zeitpunkt beobachten wir den entsprechenden Makrozustand. Jetzt haben wir die phänomenologische Thermodynamik, die uns sagt, wie sich die makroskopischen Observablen entwickeln werden und was wir zur Zeit erwarten können T 2 . Damit ist eindeutig der Mikrozustand at gemeint T 1 entwickelt sich so, dass diese Observablen bei entstehen T 2 . Aber es gibt viele verschiedene Mikrozustände, die uns veranlasst haben könnten, den ursprünglichen Makrozustand bei zu beobachten T 1 , also muss daraus folgen, dass sich die überwältigende Mehrheit dieser Mikrozustände auch zu den von uns erwarteten Makrozuständen entwickelt T 2 . Ich sehe keinen Grund, warum das unbedingt so sein sollte.

Gibt es eine Mathematik, die ich vermisse, die diesen Zufall erklärt? Oder ist das wirklich nur eine seltsame Laune der Natur, ohne die die makroskopische Physik gar nicht funktionieren würde?

EDIT: Es scheint, dass ich keine gute Arbeit geleistet habe, um meine Verwirrung zu erklären. Ich habe eine Abhandlung von ET Jaynes gefunden, die diese Themen in den Abschnitten 3 und 4 berührt. Er scheint den Zufall zu erklären, indem er Wahrscheinlichkeitsverteilungen mit scharfen Spitzen verwendet, obwohl ich nicht ganz verstehe, wie das funktioniert, und Jaynes neigt dazu, ein wenig zu sein prägnant in seinen Erklärungen. Es wäre großartig, wenn jemand das genauer erklären oder andere Referenzen bereitstellen könnte.

BEARBEITEN: Ich habe den einleitenden Teil dieses Beitrags entfernt, da er unnötige Kontroversen verursacht hat, weil ich mich nicht klar ausgedrückt habe. Wenn einige Kommentare keinen Sinn ergeben, liegt das wahrscheinlich daran.

EDIT: Um diese Kontroverse hoffentlich zu beenden, zitiere ich mich selbst aus den Kommentaren:

Ich denke, wir streiten auf verschiedenen Abstraktionsebenen. Innerhalb von „Theorien, die wir über das Universum konstruieren“ unterscheide ich zwischen zwei Arten der Verwendung von Wahrscheinlichkeiten.

Die erste Art verwenden wir, um das Werfen einer klassischen Münze zu beschreiben; Wir verwenden dafür nur die Wahrscheinlichkeit, weil uns Informationen fehlen, um mit unseren anderen "Theorien über das Universum" (wie der klassischen Mechanik) über die Münze zu argumentieren (wie der klassischen Mechanik; wir kennen nicht alle relevanten Kräfte in einem "zufälligen" Münzwurf, aber wir könnten es tun grundsätzlich einen Roboter so programmieren, dass er immer Köpfe wirft).

Die zweite Art von Wahrscheinlichkeit, die wir verwenden, um Zufälligkeit in unseren „Theorien über das Universum“ zu beschreiben, die wir nicht durch eine zugrunde liegende Theorie erklären können (wie die klassische Mechanik im Beispiel des Münzwurfs) und daher fundamental erscheint, wie in der Quantenmechanik.

Dies gilt wiederum nur für die Verwendung der Wahrscheinlichkeit. Da die Verwendung von Wahrscheinlichkeiten in der statistischen Physik von der ersten Art zu sein scheint (obwohl dies etwas umstritten ist, da sie die Quantenphysik verwendet), finde ich es seltsam, dass alles so gut funktioniert, aber dies kann nur eine Folge des Gesetzes von sein Große Zahlen.

"Angenommen, die Grundlage der statistischen Physik ist nicht wirklich probabilistisch" - warum würden Sie diese Annahme treffen? Es ist völlig probabilistisch - oder alternativ, wenn Sie davon ausgehen, dass sich ein System in einem von N Zuständen befinden kann und keiner von ihnen weniger wahrscheinlich ist als andere, und M dieser N Zustände nicht unterscheidbar sind, dann ist die Wahrscheinlichkeit, das System zu beobachten in dieser Zustand ist M N . Wenn ein Vater fünf Töchter und einen Sohn hat und er Ihnen zufällig eines seiner Kinder vorstellt, ist es wahrscheinlicher, dass es eine Tochter ist...
Beachten Sie, dass die Unterscheidbarkeit (oder deren Fehlen) experimentell für Fermionen überprüft werden kann. Es geht nicht um "Wissen über das System", sondern um eine echte Konsequenz der Quantenmechanik.
Floris: Dem stimme ich vollkommen zu, aber darum geht es in meiner Frage nicht wirklich. Ich habe es vielleicht nicht klar genug erklärt. @dmckee: Ja, das ist mir klar. Mit dieser Passage möchte ich nicht sagen, dass Ununterscheidbarkeit keine reale Eigenschaft ist oder dass sie unsere Beschreibung nicht beeinflussen sollte, sondern dass unsere Unfähigkeit, Teilchen zu unterscheiden, die Physik nicht beeinflussen sollte. Ich fürchte, meine eigene Verwirrung zu diesem Thema behindert meine Fähigkeit, meinen Standpunkt klar zu kommunizieren. Dimitris Antwort unten scheint eher in die Richtung zu gehen, was ich fragen wollte.
@Timsey Mein Punkt ist, dass es die Physik beeinflusst . Übrigens ist es eine Schlüsselzutat, um Chemie möglich zu machen. Das Liouville-Theorem und die ergodische Hypothese sind Werkzeuge, um dieses Quantenverständnis auf klassische Systeme zu übertragen, ohne die Regeln der Dekohärenz vollständig verstehen zu müssen, aber auf der niedrigsten Ebene die Unfähigkeit zu sagen, ob das Elektron 1 dort drüben ist, während Elektron 2 hier oder umgekehrt ist versa ist eine Kerneigenschaft der Physik.
@dmckee: Ich denke, wir sind uns im Prinzip einig, aber wir verwenden unterschiedliche Bedeutungen von "unserer Unfähigkeit zu sagen". Ich stimme zu, dass die Ununterscheidbarkeit eine tatsächliche – ontologische – Eigenschaft der Natur ist. Ich sage nur, dass es auf das tatsächliche Eigentum ankommt und nicht auf die Tatsache, dass „wir sie nicht unterscheiden können“. Mein Punkt ist, dass die Aussage „wir können/können dies oder das nicht tun“ irrelevant ist, wenn wir auch die tatsächliche physikalische Eigenschaft kennen, die dazu führt, dass wir das nicht tun können. Im Nachhinein erscheint mir dieser Punkt als Einleitung zu meiner eigentlichen Fragestellung eigentlich gar nicht nötig.
Vielleicht hilft das: Ich habe dieses Papier von Jaynes gefunden , das meine Frage in den Abschnitten 3 und 4 erwähnt. Er versucht, es anhand von Eigenschaften von Verteilungen mit scharfen Spitzen zu erklären, und obwohl ich nicht wirklich verstehe, wie dies das Problem löst, scheint es er erkennt das Problem.
Zum einen wissen Sie nicht, dass die Natur deterministisch ist. Die Natur sieht auf makroskopischer Ebene deterministisch aus (aber das ist eigentlich unentscheidbar) und auf mikroskopischer Ebene ist sie unsicher, was naiven Determinismus ziemlich schnell auf die Weide bringt. Noch wichtiger ist, dass die Theorie der Natur nicht vorschreibt, was zu tun ist, es sind Beobachtungen der Natur, die zu bestimmten Entscheidungen für die Theorie führen. Sie finden es vielleicht unbefriedigend, dass sich die Natur anscheinend nicht mehr als Sie um die Unterscheidbarkeit bestimmter Teilchen kümmert, aber der tiefere Grund dafür liegt in der Tatsache, dass es keine Teilchen gibt.
@CuriousOne: Sie machen einen guten Punkt in Bezug auf Determinismus. Ich habe immer noch das Gefühl, dass ich mich nicht klar ausdrücke, da der letzte Teil Ihres Kommentars nichts ist, was ich noch nicht wusste: Tatsächlich gehe ich ziemlich davon aus, dass es der Natur egal ist, was ich für meine Frage denke irgendeinen Sinn machen. Ich denke, ich werde den ersten Teil meines Beitrags bearbeiten, da er nicht wirklich viel hinzufügt und mehr Aufmerksamkeit zu erregen scheint als die eigentliche Frage.
„Ich sage nur, dass das tatsächliche Eigentum zählt, und nicht die Tatsache, dass ‚wir sie nicht unterscheiden können‘.“ Dies bringt es jedoch völlig nach hinten. Die Tatsache , dass wir sie nicht unterscheiden können, motiviert uns, Theorien zu schreiben, in denen Teilchen nicht unterscheidbar sind. Dieses Theorieschreiben hat nichts mit "ontologischen Eigenschaften" zu tun.
@knzhou: Ich fürchte, das kommt in die Semantik. Ich unterscheide zwischen „wir können sie nicht unterscheiden“ und „sie können im Prinzip nicht unterschieden werden“, nur um darauf hinzuweisen, dass das, was wir über die Physik glauben, für die Physik keine Rolle spielt. Dies ist wichtig, da sich die Wahrscheinlichkeit in der klassischen Physik von der in der Quantenphysik unterscheidet. Im ersten Fall ist es erkenntnistheoretisch: Wir können sagen, dass eine Münze mit einer Wahrscheinlichkeit von 1/2 Kopf zeigt, aber das Ergebnis ist im Prinzip berechenbar, wenn wir mehr über das System wüssten. Umgekehrt scheint die Quantenwahrscheinlichkeit ontologisch zu sein: tatsächlich zufällig.
Ich glaube, Sie schwanken zwischen Physik als „dem Universum“ und Physik als „den Theorien, die wir über das Universum konstruieren“. Offensichtlich wirkt sich das, was wir über Ersteres glauben (dh aus Beobachtungen folgern), auf Letzteres aus. Niemand hat jemals behauptet, dass das, was wir über Letzteres glauben, Ersteres beeinflusst, außer vielleicht Max Tegmark.
Ebenso macht Ihre Unterscheidung zwischen „erkenntnistheoretisch“ und „ontologisch“ für die Physik keinen Sinn. Wenn ich auf Ihre Definition von „ontologischem“ Recht schließe, würden einige Leute argumentieren, dass wir überhaupt kein ontologisches Wissen über das Universum haben, sondern nur Rahmen, die auf Vermutungen basieren.
Die wichtigste Eigenschaft von Teilchen ist, dass sie nicht existieren. Die einzigen Dinge, die "existieren", sind Quantenfelder, soweit wir das beurteilen können. Die statistischen Eigenschaften der emergenten Teilchen sind also nichts anderes als emergente Symmetrien der Quantenfelder selbst. Ich denke, dieses Bild sollte es ein wenig einfacher machen, von der Physik, die man von makroskopisch unterscheidbaren Gegenständen erwarten würde, auf die Physik eines (oder einiger weniger) kontinuierlicher Dinge zu abstrahieren, die alles durchdringen.
@knzhou: Hmm, ich denke, wir streiten auf verschiedenen Abstraktionsebenen. Innerhalb von „Theorien, die wir über das Universum konstruieren“ unterscheide ich zwischen zwei Arten der Verwendung von Wahrscheinlichkeiten. Die erste Art verwenden wir, um das Werfen einer klassischen Münze zu beschreiben; Wir verwenden dafür nur die Wahrscheinlichkeit, weil uns Informationen fehlen, um mit unseren anderen "Theorien über das Universum" (wie der klassischen Mechanik) über die Münze zu argumentieren (wie der klassischen Mechanik; wir kennen nicht alle relevanten Kräfte in einem "zufälligen" Münzwurf, aber wir könnten es tun grundsätzlich einen Roboter so programmieren, dass er immer Köpfe wirft).
Die zweite Art von Wahrscheinlichkeit, die wir verwenden, um Zufälligkeit in unseren „Theorien über das Universum“ zu beschreiben, die wir nicht durch eine zugrunde liegende Theorie erklären können (wie die klassische Mechanik im Beispiel des Münzwurfs) und daher fundamental erscheint, wie in der Quantenmechanik. Dies gilt wiederum nur für die Verwendung der Wahrscheinlichkeit. Da die Verwendung von Wahrscheinlichkeiten in der statistischen Physik von der ersten Art zu sein scheint (obwohl dies etwas umstritten ist, da sie die Quantenphysik verwendet), finde ich es seltsam, dass alles so gut funktioniert, aber dies kann nur eine Folge des Gesetzes von sein Große Zahlen.

Antworten (2)

Der springende Punkt der statistischen Physik ist, dass wir uns nicht wirklich darum kümmern, was der Mikrozustand sein könnte, wir wissen nur, dass es eine große Sammlung ähnlicher Zustände gibt, die denselben Makrozustand hervorrufen. Ich glaube, was Sie fragen, hängt eng mit der ergodischen Hypothese zusammen

Interessant. Ich bin vorhin auf das Theorem von Liouville gestoßen und es schien verwandt zu sein. Ich werde mir das mal durchlesen, danke.

Die meisten Dinge in dieser Richtung sind einfach der zentrale Grenzwertsatz / das Gesetz der großen Zahlen.

Wenn Sie beispielsweise ein Gas in einem isolierten Behälter mit einem Kolben komprimieren, steigt seine Temperatur. Warum? Denn der sich bewegende Kolben beschleunigt Gasmoleküle, die von ihm abprallen.

Und warum steigt die Temperatur immer um den gleichen Betrag? Weil es so viele Kajillionen von Atomen in einem makroskopischen Behälter gibt, dass der zentrale Grenzwertsatz ziemlich genau garantiert, dass jede Millisekunde eine ähnliche Anzahl von Atomen auf den Kolben trifft, und zwar mit einer ähnlichen Geschwindigkeitsverteilung.

Für sehr kleine Systeme gilt das Gesetz der großen Zahl nicht, und tatsächlich macht man im Allgemeinen keine deterministischen Temperaturänderungen etc., sondern Vorhersagen über die Wahrscheinlichkeitsverteilungen für das, was passieren wird.

Danke, das hilft. Es scheint mit Jaynes' Behauptungen über Verteilungen mit scharfen Spitzen übereinzustimmen. Ich verstehe immer noch nicht genau, warum dies für alle Mikrozustände funktionieren sollte, die allen makroskopischen Observablen zugrunde liegen, aber ich nehme an, dass verschiedene Mikrozustände, die dasselbe makroskopische Verhalten zeigen, so ähnlich sind, dass ich kaum erwarten kann, dass sie sich sehr unterschiedlich entwickeln. Die große Anzahl von Partikeln verhindert wahrscheinlich das Auftreten von Diskontinuitäten: Jedes Partikel, das etwas sehr Unwahrscheinliches tut, wird von den ~ 10 ^ 24 anderen überschattet.