Was sind die rechtfertigenden Grundlagen der statistischen Mechanik, ohne sich auf die ergodische Hypothese zu berufen?

Diese Frage wurde als eine der Fragen im Vorschlag aufgeführt (siehe hier ), und ich wusste die Antwort nicht. Ich kenne die Ethik nicht, eine solche Frage offen zu stehlen, also wenn sie gelöscht oder in CW geändert werden sollte, dann lasse ich die Mods es ändern.

Die meisten Grundlagen der statistischen Mechanik berufen sich auf die ergodische Hypothese . Aus mathematischer Sicht ist dies jedoch eine ziemlich starke Annahme. Es gibt eine Reihe von Ergebnissen, die häufig in der statistischen Mechanik verwendet werden und auf der Ergodentheorie basieren. In jedem Kurs über statistische Mechanik, an dem ich teilgenommen habe, und in fast jedem Buch, das ich gelesen habe, wurde die Annahme nur auf der Grundlage der Begründung getroffen, dass Berechnungen ohne sie praktisch unmöglich werden.

Daher war ich überrascht zu sehen, dass behauptet wird (im ersten Link), dass die ergodische Hypothese "absolut unnötig" sei. Die Frage ist ziemlich selbsterklärend, aber für eine vollständige Antwort würde ich nach einer Referenz suchen, die die Entwicklung der statistischen Mechanik enthält, ohne auf die ergodische Hypothese einzugehen, und insbesondere auf eine Diskussion darüber, was die Annahme der ergodischen Hypothese Ihnen über andere Grundlagen gibt Schemata.

Ich halte den Begriff „Grundlagen rechtfertigen“ für eine Fehlbezeichnung, und diese Frage stellt sich nur durch die Verwendung dieses Begriffs. Mein Verständnis ist, dass Experimente die einzige Grundlage für jeden Bereich der Physik sind. Die ergodische Hypothese ist nur ein mathematischer Trick, mit dem man die Gründe für die Gesetze der Statistik aufzeigt. Diese Gesetze sind innerhalb ihres Anwendungsbereichs ziemlich gut darin, eine Reihe von beobachtbaren thermodynamischen Phänomenen zu erklären. Und das ist die Rechtfertigung der statistischen Physik. Die statistische Mechanik ist nicht von der Ergodenhypothese „abgeleitet“, auch wenn Landau und Lifshitz es so erscheinen lassen.
Vielleicht sollte das eine Antwort sein :)
Ich stimme +drlemon nicht zu. Statistische Mechanik ist kein phänomenologisches Modell, wie Drlemon behauptet. Die statistische Mechanik, wie sie von Physikern verwendet wird, ist eine Methode, um aus dem postulierten (oder gemessenen) Verhalten der einzelnen Komponenten Eigenschaften eines Systems einer großen (eigentlich unendlichen) Anzahl von Bestandteilen abzuleiten. Es ist beispielsweise ein Werkzeug, um aus den Bewegungsgesetzen der einzelnen Moleküle die thermodynamischen Gasgesetze abzuleiten. Die Tatsache, dass ein Gas aus nicht wechselwirkenden Teilchen, die den Newtonschen Gesetzen gehorchen, das ideale Gasgesetz erfüllt, ist etwas, das man herleitet, keine experimentelle Tatsache.
@drlemon Der Ausdruck «Grundlagen rechtfertigen» ist in diesem Zusammenhang auch grammatikalisch falsch. Ich nehme an, das OP bedeutet einfach nur „Stiftungen“, da Stiftungen einige Rechtfertigungen leisten sollen, auch wenn sie ihren anderen Aufgaben nachgehen. Aber Ihr Standpunkt ist zwar weit verbreitet, aber a) antifundamental. Experimente sind nicht die Grundlagen einer Theorie, sie sind der Beweis einer Theorie. Ihr Standpunkt bestreitet tatsächlich, dass die Physik irgendwelche Grundlagen hat oder braucht. Sie haben Recht, wenn die Definition von Physik einen Zuschuss erhält b) das Problem der Verbindung von Theorie und Experiment ignoriert: siehe unten
@josephf.johnson Obwohl ich die Worte „Grundlagen rechtfertigen“ verwendet habe, muss ich leider zugeben, dass diese bestimmte Wendung nicht meine eigene ist, und ich kann die darin enthaltene Absicht nicht kommentieren. Der Titel dieser Frage wurde von einer Frage kopiert, die auf dem Area 51-Vorschlag der inzwischen nicht mehr existierenden Website Theoretical Physics gestellt wurde. Ich stimme Ihnen zu, dass der Ausdruck „Grundlagen rechtfertigen“ etwas seltsam ist, aber es schien unklug, die Idee für die Frage zu kopieren, aber den Titel zu ändern; Stattdessen habe ich versucht, so gut ich konnte, die Absicht des ursprünglichen Fragestellers aufrechtzuerhalten, und den Ort angegeben, an dem ich ihn gefunden hatte.
@LoganMaingi, mach dir keine Sorgen, schließlich habe ich in meiner Antwort alles erklärt, sogar eine zusätzliche Sache, nach der du nicht gefragt hast. Die Antwort, die Sie akzeptiert haben, ist nicht so schlecht. Die ergodische Hypothese ist so tot wie ein Türnagel, wenn Sie den genauen Begriff des wandernden Pfades meinen, was es technisch bedeutet. Aber ein funktional äquivalenter Ersatz für den Ergodensatz wird dringend benötigt.
@josephf.johnson Was deine Antwort betrifft, hatte ich leider noch keine Gelegenheit, sie zu lesen. Diese Frage wurde fast ein Jahr lang nicht bearbeitet, und die Antworten leisten zumindest auf dem von mir gesuchten Niveau ziemlich gute Arbeit. Um ehrlich zu sein, hatte ich sie völlig vergessen. Ihre Antwort scheint auf einem fortgeschritteneren Niveau zu sein und erklärt die Dinge detaillierter. Ich weiß es zu schätzen, auch wenn ich in absehbarer Zeit keine Gelegenheit habe, es mir anzusehen.

Antworten (6)

Die Ergodenhypothese gehört nicht zu den Grundlagen der statistischen Mechanik. Tatsächlich wird es erst dann relevant, wenn man statistische Mechanik nutzen möchte, um Aussagen über zeitliche Mittelwerte zu treffen. Ohne die Ergodenhypothese macht die statistische Mechanik Aussagen über Gesamtheiten, nicht über ein bestimmtes System.

Um diese Antwort zu verstehen, muss man verstehen, was ein Physiker unter einem Ensemble versteht. Es ist dasselbe wie das, was ein Mathematiker einen Wahrscheinlichkeitsraum nennt. Der Wikipedia-Artikel „Statistisches Ensemble“ erklärt das Konzept recht gut. Es enthält sogar einen Absatz, der die Rolle der ergodischen Hypothese erklärt.

Der Grund, warum einige Autoren es so aussehen lassen, als ob die Ergodenhypothese zentral für die statistische Mechanik sei, ist, dass sie Ihnen eine Begründung dafür geben wollen, warum sie sich so für das mikrokanonische Ensemble interessieren. Und der Grund, den sie angeben, ist, dass die ergodische Hypothese für dieses Ensemble gilt, wenn Sie ein System haben, für das die Zeit, die es in einem bestimmten Bereich des zugänglichen Phasenraums verbringt, proportional zum Volumen dieses Bereichs ist. Aber das ist nicht zentral für die statistische Mechanik. Statistische Mechanik kann mit anderen Ensembles durchgeführt werden, und außerdem gibt es andere Möglichkeiten, das kanonische Ensemble zu rechtfertigen, zum Beispiel ist es das Ensemble, das die Entropie maximiert.

Eine physikalische Theorie ist nur dann nützlich, wenn sie mit Experimenten verglichen werden kann. Statistische Mechanik ohne die Ergodenhypothese, die nur Aussagen über Ensembles macht, ist nur sinnvoll, wenn man Messungen an Ensembles vornehmen kann. Das bedeutet, dass es möglich sein muss, ein Experiment immer wieder zu wiederholen, und die Häufigkeit, mit der bestimmte Mitglieder des Ensembles erhalten werden, sollte durch die Wahrscheinlichkeitsverteilung des Ensembles bestimmt werden, das Sie als Ausgangspunkt Ihrer statistischen Mechanik-Berechnungen verwendet haben.

Manchmal können Sie jedoch nur mit einem einzigen Sample aus dem Ensemble experimentieren. In diesem Fall ist die statistische Mechanik ohne ergodische Hypothese nicht sehr nützlich, da sie Ihnen zwar sagen kann, wie eine typische Stichprobe aus dem Ensemble aussehen würde, Sie jedoch nicht wissen, ob Ihre spezielle Stichprobe typisch ist. Hier hilft die Ergodenhypothese. Es besagt, dass der Zeitdurchschnitt, der in einer bestimmten Probe genommen wird, gleich dem Ensembledurchschnitt ist. Mit der statistischen Mechanik können Sie den Ensemble-Durchschnitt berechnen. Wenn Sie über einen ausreichend langen Zeitraum Messungen an Ihrer einen Probe durchführen können, können Sie den Durchschnitt nehmen und ihn mit dem vorhergesagten Ensemble-Durchschnitt vergleichen und somit die Theorie testen.

In vielen praktischen Anwendungen der statistischen Mechanik ist die Ergodenhypothese also sehr wichtig, aber sie ist nicht grundlegend für die statistische Mechanik, sondern nur für ihre Anwendung auf bestimmte Arten von Experimenten.

In dieser Antwort habe ich die ergodische Hypothese als die Aussage verstanden, dass Ensemble-Mittelwerte gleich Zeit-Mittelwerten sind. Um die Verwirrung noch zu verstärken, sagen einige Leute, dass die ergodische Hypothese die Aussage ist, dass die Zeit, die ein System in einem Bereich des Phasenraums verbringt, proportional zum Volumen dieses Bereichs ist. Diese beiden sind gleich, wenn das gewählte Ensemble das mikrokanonische Ensemble ist.

Zusammenfassend: Die Ergodenhypothese wird an zwei Stellen verwendet:

  1. Um die Verwendung des mikrokanonischen Ensembles zu rechtfertigen.
  2. Vorhersagen über den zeitlichen Mittelwert von Observablen zu treffen.

Beides ist für die statistische Mechanik nicht von zentraler Bedeutung, da 1) die statistische Mechanik für andere Ensembles durchgeführt werden kann und wird (z. B. solche, die durch stochastische Prozesse bestimmt werden) und 2) oft Experimente mit vielen Stichproben aus der Gesamtheit durchgeführt werden, anstatt mit Zeitdurchschnitten einer einzelnen Stichprobe .

Das ist eine großartige Erklärung dafür, warum die ergodische Hypothese nicht die beste Grundlage für die statistische Mechanik ist, aber die Frage scheint eher darin zu liegen, was die richtigen Ausgangspunkte (Grundprinzipien / Postulate) sind, um physikalisch korrekte Ensembles zu definieren / auszuwählen.
Ich weiß die ausführliche Antwort zu schätzen, und sie beantwortet sicherlich die meisten meiner Fragen. Wie Slaviks andeutet, interessierte mich auch, was die richtigen Ausgangspunkte sind. Alles in dieser Richtung (selbst wenn nur auf eine Referenz verwiesen wird, in der Grundlagen ausführlich diskutiert werden) wäre willkommen. Mir war nicht bewusst, dass die ergodische Hypothese zwei verschiedene Dinge bedeuten könnte. Ich habe es immer als die Aussage gesehen, die Sie gewählt haben. Im Moment habe ich das noch nicht akzeptiert, aber ich habe vor, dies später heute zu tun.
In Ordnung, nach erneutem Lesen scheint es mir, dass Sie behaupten, dass die Standardgrundlagen der statistischen Mechanik die ergodische Hypothese überhaupt nicht hervorrufen und dass die Betonung darauf eher auf schlechte Pädagogik als auf eine schlechte Wahl grundlegender Prinzipien und Postulate zurückzuführen ist . Das habe ich vorhin falsch gelesen. Auf jeden Fall beantwortet dies die Frage vollständig und vollständig, also habe ich sie akzeptiert.
+Logan Maingi, ich habe in meiner Antwort jedoch nicht auf die Frage eingegangen, wie man das passende Ensemble auswählt. Das ist eine schwierigere Frage als die nach den Grundlagen der statistischen Mechanik, weil sie Kenntnisse über den jeweiligen Bereich erfordert, in dem Sie die statistische Mechanik anwenden möchten. Meine Sicht der statistischen Mechanik wird derzeit von dem Bereich beeinflusst, in dem ich ihr zuletzt begegnet bin, nämlich der statistischen Mechanik von Zufallsgraphen, siehe nächster Kommentar.
In dem in meinem vorherigen Kommentar erwähnten Kontext untersucht man Graphen, die aus vielen Knoten bestehen, anstatt Gase zu untersuchen, die aus vielen Teilchen bestehen. Dort wird das Ensemble von Zufallsgraphen, mit dem gearbeitet werden soll, entweder einfach postuliert (z. B. verwenden einige Leute das Ensemble von Zufallsgraphen mit einer bestimmten Gradverteilung, nachdem sie die Verteilung in einem realen Graphen gemessen haben) oder es wird durch Angabe eines stochastischen Prozesses für erhalten die Zusammenstellung des Graphen (z. B. ein Prozess, der neue Knoten zufällig nach der Regel der bevorzugten Anbringung anfügt).
Die Ergodenhypothese (als Aussage über den Zusammenhang zwischen Zeitmittel und Ensemblemittel) wird in diesem Bereich üblicherweise nicht beschworen. Stattdessen gibt es das Prinzip, dass die Mittelung einer Knoteneigenschaft über alle Knoten in einem bestimmten Graphen dasselbe Ergebnis liefert, als würde man einen bestimmten Knoten nehmen und seine Eigenschaft über das Ensemble mitteln.
Nun, das verrät eine etwas unphysische Perspektive. Die Schlussfolgerung der ergodischen Hypothese, dass Zeitmittelwerte durch Phasenmittelwerte ersetzt werden können, ist erforderlich, wenn es irgendeine Verbindung zwischen Theorie und Experiment geben soll. Sowohl Wiener als auch Gelfand betonten diesen Punkt. Wir können nur Ensemblemittelwerte berechnen. Aber jede Messung ist ein Langzeitmittelwert, den wir idealisieren, indem wir ihn als unendlichen Zeitmittelwert betrachten. Eine wissenschaftliche Theorie, die Größen berechnet, aber ihren Zusammenhang mit Messungen nicht rechtfertigen könnte, wäre eine Theorie ohne zufriedenstellende Grundlagen, selbst wenn sie nützlich wären.
+ Josef f. Jonhson: Warum sagen Sie, dass jede Messung ein Langzeitdurchschnitt ist? Inwiefern handelt es sich beispielsweise bei der Messung von Volumen und Druck eines Gases in einem Behälter um einen Langzeitmittelwert?
Mehrere Sinne. Atomare Zeitskalen zum Erreichen des Gleichgewichts sind so schnell, dass unsere Messapparate tatsächlich nur einen durchschnittlichen Druck erfassen, der selbst über eine Millisekunde wie eine Unendlichkeit in Hundejahren ist. Stellen Sie sich vor, unser Thermometer würde die Temperatur tatsächlich so schnell registrieren, wie sich Atome bewegen und aneinander stoßen, also würde es den Aufprall jedes einzelnen Gasatoms darauf erfassen, registrieren und anzeigen, mit einer «Totzeit», die kürzer ist als die Intervalle zwischen solchen Aufprallen. Tatsächlich existiert die Temperatur auf dieser Zeitskala nicht einmal: Die Anzeige würde wild schwanken, es gäbe keine Antwort.
In Zeitreihen, meiner Spezialität, können wir nie mehr als eine Stichprobe aus der Grundgesamtheit ziehen. Es ist wie ein schlechter Witz: Schätzen Sie die Standardabweichung einer Grundgesamtheit von einer Stichprobe von eins . Aber das machen wir jeden Tag....

Was Verweise auf andere Ansätze zu den Grundlagen der statistischen Physik betrifft, können Sie einen Blick auf den klassischen Artikel von Jaynes werfen ; siehe zB auch diesen Aufsatz (insbesondere Abschnitt 2.3), wo er die Irrelevanz ergodischer Hypothesen als Grundlage der statistischen Gleichgewichtsmechanik diskutiert. Natürlich leidet Jaynes' Ansatz auch an einer Reihe von Mängeln, und ich denke, man kann mit Sicherheit sagen, dass das grundlegende Problem der statistischen Gleichgewichtsmechanik noch weitgehend offen ist.

Vielleicht finden Sie es auch interessant, sich dieses Papier von Uffink anzusehen, in dem die meisten modernen (und alten) Ansätze für dieses Problem zusammen mit ihren jeweiligen Mängeln beschrieben werden. Dadurch erhalten Sie viele neuere Referenzen.

Wenn Sie schließlich eine mathematisch gründlichere Diskussion der Rolle der Ergodizität (richtig interpretiert) in den Grundlagen der statistischen Mechanik wünschen, sollten Sie einen Blick auf Gallavottis Statistical Mechanics - Short Treatise , Springer-Verlag (1999), insbesondere Kapitel I, werfen , II und IX.

EDIT (22. Juni 2012): Ich habe mich gerade an dieses Papier von Bricmont erinnert, das ich vor langer Zeit gelesen habe. Es ist ziemlich interessant und angenehm zu lesen (wie das meiste, was er schreibt): Bayes, Boltzmann and Bohm: Probabilities in Physics .

Können Sie einige Hinweise auf Kritik an Jaynes' Ansatz geben? Ich denke, sein Denken hat sich im Laufe der Jahre auf subtile Weise geändert, und tatsächlich denke ich, dass er an dem einen oder anderen Punkt tatsächlich eine vollständig vertretbare Theorie hatte ...
@genneth: Da gibt es mehrere. Ich muss gestehen, dass ich etwas voreingenommen bin (ich finde Jaynes' Ansatz unendlich besser als den ergodischen). Davon abgesehen: Ein Hauptkritikpunkt ist etwas philosophisch. In Jaynes Ansatz, stat. mech. ist nicht wirklich eine physikalische Theorie, wie sie normalerweise gemeint ist, sondern eher ein bestimmtes Beispiel für statistische Inferenz.
Zweitens ist die Anwendung von MaxEnt in Ordnung, wenn der zugrunde liegende Konfigurationsraum eine endliche Menge ist, wird aber viel weniger überzeugend, wenn es um kompliziertere Situationen geht. Wenn man zum Beispiel ein Gas beschreiben will (kein Gittermodell!), warum sollte man das Liouville-Maß bevorzugen? Die Dinge werden noch schlimmer, wenn Teilchen interne Freiheitsgrade haben: Warum sollten wir zB für zweiatomige Moleküle die Aktionswinkelkoordinaten nehmen? Man kann Argumente finden, aber diese sind ziemlich schwach. Ähnliche Schwierigkeiten gibt es natürlich auch beim ergodischen Ansatz (Anfangsbedingungen müssen "typisch" sein).
Natürlich gibt es noch viele andere Kritiker. Siehe zB Sklars Buch (Ref. in Steves Antwort).
interessant; Ich lasse meine Meinung zu diesen Punkten beiseite, da es nicht zum Thema gehört, aber zumindest sagt die Amazon-Rezension zu Sklar, dass die Kritik an MaxEnt nicht besonders gründlich ist. Ich muss gestehen, dass ich Schwierigkeiten habe, wirklich gut präsentierte Argumente dafür zu finden – auch hier bin ich, wie Sie, voreingenommen. Danke für die Antworten.
@genneth: Nun, Sie könnten diese Frage stellen :) . Ich bin mir fast sicher, dass Sie hier einige vehemente Gegner von Jaynes' Ideen finden werden. Diese Art von Fragen scheint immer ziemlich starke Meinungen hervorzurufen ;) .
@YvanVelenik Lieber Yvan, könntest du bitte bei diesem Beitrag helfen? Vielen Dank
@YvanVelenik Warum würde ich das Louiville-Maß nicht verwenden? Es ist einzigartig, da es unter der Dynamik unveränderlich ist. Hebt es das nicht hervor?

Ich habe nach "Mischen" gesucht und es in anderen Antworten nicht gefunden. Aber das ist der Schlüssel. Ergodizität ist weitgehend irrelevant, aber das Mischen ist die Eigenschaft, die die statistische Gleichgewichtsphysik für Vielteilchensysteme zum Ticken bringt. Siehe z. B. Sklars Physics and Chance oder Jaynes' Artikel über statistische Physik.

Die chaotische Hypothese von Gallavotti und Cohen legt im Grunde nahe, dass dasselbe für NESSs gilt.

Ich habe kürzlich eine wichtige Arbeit veröffentlicht, Einige Spezialfälle von Khintchines Vermutungen in der statistischen Mechanik: approximative Ergodizität der Autokorrelationsfunktion einer Anordnung linear gekoppelter Oszillatoren. REVISTA INVESTIGACIÓN OPERACIONAL VOL. 33, NR. 3, 99-113, 2012 http://rev-inv-ope.univ-paris1.fr/files/33212/33212-01.pdf , das den Wissensstand zur Beantwortung dieser Frage erweitert.

Kurz gesagt: Man muss die Schlussfolgerung der Ergodenhypothese begründen, ohne die Ergodenhypothese selbst anzunehmen. Die Erwünschtheit, dies zu tun, ist seit langem erkannt worden, aber der stürmische Fortschritt war langsam. Terminologie: Die erdodische Hypothese besagt, dass jeder Pfad durch (oder zumindest nahe) jeden Punkt wandert. Diese Hypothese ist fast nie wahr. Die Schlussfolgerung der ergodischen Hypothese : Fast immer sind unendliche zeitliche Mittelwerte einer Observablen über eine Trajektorie (zumindest ungefähr) gleich dem Mittelwert dieser Observablen über das Ensemble. (Selbst wenn die ergodische Hypothese zutrifft, folgt daraus keine Schlussfolgerung. Entschuldigung, aber diese Terminologie ist zum Standard geworden, traditionell, orthodox, und es ist zu spät, sie zu ändern.) TheErgodensatz : Wenn es nicht triviale unterschiedliche invariante Unterräume gibt, gelten die Schlussfolgerungen der Ergodenhypothese.

Darwin ( http://www-gap.dcs.st-and.ac.uk/history/Obits2/Darwin_C_G_RAS_Obituary.html ) und Fowler ( http://www-history.mcs.st-andrews.ac.uk/Biographies /Fowler.html ), bedeutende mathematische Physiker (Fowler war Darwins Schüler und Dirac war Fowlers), fanden in den 1920er Jahren die richtige grundlegende Rechtfertigung für Stat Mech und zeigten, dass sie mit dem Experiment in jedem bis dahin üblicherweise untersuchten Fall übereinstimmten, und auch für Sternreaktionen. Khintchine, der große sowjetische Mathematiker, überarbeitete die Details ihrer Beweise (Die Einführung zu seinem dünnen Buch zu diesem Thema wurde im Internet unter http://www-history.mcs.st-andrews.ac.uk/ veröffentlicht). Extras/Khinchin_Einführung.html), machte sie einem breiteren Publikum zugänglich und wurde von Mathematikern und Wissenschaftsphilosophen intensiv studiert, die sich für die Grundlagen der statistischen Mechanik oder überhaupt für wissenschaftliche Schlussfolgerungen interessieren (siehe beispielsweise http://igitur-archive. library.uu.nl/dissertations/1957294/c7.pdf und, als weiteres Beispiel, Jan von Plato Ergodische Theorie und die Grundlagen der Wahrscheinlichkeit , in B. Skyrms und WL Harper, Hrsg., Causation, Chance and Credence, Proceedings of the Irvine Konferenz über Wahrscheinlichkeit und Kausalität, Bd. 1, S. 257-277, Kluwer, Dordrecht 1988). Khintchines Arbeit ging noch weiter, und in einigen Vermutungen hoffte er, dass jedes dynamische System mit einer ausreichend großen Anzahl von Freiheitsgraden die Eigenschaft haben würde, dass die physikalisch interessanten Observablen die Schlussfolgerungen des Ergodensatzes näherungsweise erfüllen würden, obwohl das dynamische System dies nicht tat sogar annähernd die Hypothesen des Ergodensatzes erfüllen. Seine Verhaftung, er starb im Gefängnis, unterbrach die mögliche Gründung einer Schule zur Durchführung seines Forschungsprogramms, aber Ruelle und Lanford III machten einige Fortschritte.

In meiner Arbeit konnte ich Khintchines Vermutungen für praktisch alle linearen klassischen dynamischen Systeme beweisen. Für die Quantenmechanik ist die Situation natürlich viel kontroverser. Trotzdem stützte Fowler seine Theoreme über die klassische statistische Mechanik tatsächlich auf die Quantentheorie, obwohl Khintschine das Gegenteil tat: zuerst den klassischen Fall bewies und dann erfolglos versuchte, die für QM erforderlichen Modifikationen zu behandeln. Meiner Meinung nach bringt der Quantenfall nichts Neues.


Warum die Messung in der statistischen Mechanik durch einen unendlichen Zeitmittelwert modelliert wird

Dies ist der Point d'appui für den Ergodensatz oder seine Substitute.

Masani, P., und N. Wiener, "Non-linear Prediction," in Probability and Statistics, The Harald Cramer Volume , hrsg. U. Grenander, Stockholm, 1959, p. 197: «Wie von Neumann angegeben ... bei der Messung einer makroskopischen Größe x verbunden mit einem physikalischen oder biologischen Mechanismus... jeder Messwert von x ist eigentlich der Durchschnitt über ein Zeitintervall T [was] aus makroskopischer Sicht kurz erscheinen mag, aber mikroskopisch gesehen ist es groß. Das ist die Grenze x ¯ , wie T , dessen Mittelwert existiert und in ergodischen Fällen unabhängig vom mikroskopischen Zustand ist, ist der Inhalt des kontinuierlichen Parameters L 2 -Ergodensatz. Der in der Praxis auftretende Fehler, die Grenze nicht zu nehmen, ist natürlich als statistische Streuung zu verstehen x ¯ .» Vgl. auch Khintchine, A., a. zit. , p. 44f., „eine Beobachtung, die die Messung einer physikalischen Größe ergibt, erfolgt nicht augenblicklich, sondern erfordert eine gewisse Zeitspanne, die, so klein sie uns auch erscheinen mag, in der Regel sehr groß sein würde Sicht eines Beobachters, der die Entwicklung unseres physikalischen Systems beobachtet. [...] Wir müssen also experimentelle Daten vergleichen ... mit zeitlichen Mittelwerten, die über sehr große Zeitintervalle genommen wurden.» Und nicht der Momentanwert oder Momentanzustand. Wiener, zitiert in Heims, op. zit. , p. 138f., «jede Beobachtung ... nimmt eine begrenzte Zeit in Anspruch und führt dadurch zu Unsicherheit.»

Benatti, F. Deterministic Chaos in Infinite Quantum Systems , Berlin, 1993, Trieste Notes in Physics , p. 3, «Da die charakteristischen Zeiten von Messprozessen auf Makrosystemen wesentlich länger sind als die der zugrunde liegenden Mikrophänomene, ist es vernünftig, sich die Ergebnisse eines Messvorgangs als zeitliche Mittelwerte vorzustellen, die entlang von Phasentrajektorien entsprechend gegebenen Anfangsbedingungen ausgewertet werden .» Und Pauli, W., Pauli Lectures on Physics, Band 4, Statistical Mechanics , Cambridge, Mass., 1973, p. 28f., «Was makroskopisch beobachtet wird, sind Zeitmittelwerte... »

Wiener, „Logique, Probabilite et Methode des Sciences Physiques“, „Toutes les lois de probabilite connues sont de caractere asymptotique … les Considerations asymptotiques n’ont d’autre but dans la Science que de permettre de connaitre les proprietes des ensembles tres nombreux en evitant de voir ces proprietes s'evanouir dans la verwirrt resultant de las specificite de leur infinitude. L'infini permet ainsi de Considere des nombres tres grands sans avoir a tenir compte du fait que ce sont des entites distinktes.»


Warum wir Ensemblemittelwerte durch Phasenmittelwerte ersetzen müssen, was auf verschiedene Weise erreicht werden kann, ist der traditionelle Weg, die ergodische Hypothese zu verwenden.

Diese Zitate drücken die orthodoxe Herangehensweise an Classical Stat Mech aus. Das klassische mechanische System befindet sich in einem bestimmten Zustand, und eine Messung einer Eigenschaft dieses Zustands wird durch einen Langzeitmittelwert über die Bahn des Systems modelliert. Wir approximieren dies, indem wir den unendlichen Zeitdurchschnitt nehmen. Unsere Theorie kann dies jedoch nicht berechnen, sowieso kennen wir nicht einmal die Anfangsbedingungen des Systems, also wissen wir nicht, welche Trajektorie ... was unsere Theorie berechnet, ist der Phasenmittelwert oder der Ensemblemittelwert. Wenn wir keine ungefähre Gleichheit des Ensemblemittels mit dem Zeitmittel rechtfertigen können, können wir nicht erklären, warum die Größen, die unsere Theorie berechnet, mit den Größen übereinstimmen, die wir messen .

Manchen ist das natürlich egal. Das soll antifundamental sein.

Diese Vorträge könnten Sie interessieren:

Verschränkung und die Grundlagen der statistischen Mechanik

Die kleinstmöglichen thermischen Maschinen und die Grundlagen der Thermodynamik

gehalten von Sandu Popescu am Perimeter Institute, sowie in diesem Artikel

Verschränkung und die Grundlagen der statistischen Mechanik .

Es wird argumentiert, dass:

  1. "Das Hauptpostulat der statistischen Mechanik, das Postulat der gleichen a priori-Wahrscheinlichkeit, sollte als irreführend und unnötig aufgegeben werden" (die ergodische Hypothese ist eine Möglichkeit, das Postulat der gleichen a priori-Wahrscheinlichkeit sicherzustellen)

  2. Stattdessen wird eine Quantenbasis für die statistische Mechanik basierend auf Verschränkung vorgeschlagen. Im Hilbert-Raum, so wird argumentiert, liegen fast alle Zustände nahe an der kanonischen Verteilung.

Vielleicht finden Sie in dem Papier noch einige andere interessante Referenzen zu diesem Thema.

Auch in der klassischen Mechanik und der klassischen statistischen Mechanik, z. B. der Theorie der Brownschen Bewegung, ist seit langem erkannt worden, dass es prinzipiell möglich sein sollte, auf das Postulat der a priori gleichen Wahrscheinlichkeit zu verzichten. Es wurde festgestellt, dass die thermodynamischen Grenzen, die wir erhalten, weitgehend unabhängig davon sind, welche anfängliche Wahrscheinlichkeitsverteilung Sie dem Phasenraum auferlegen. Eine rigorose mathematische Untersuchung dieser Robustheit wird wie ein Jahrtausendproblem empfunden ... aber in physikalischer Hinsicht geht die Intuition auf Sir James Jeans zurück.

Ich stimme Mareks Aussage nicht zu, dass "in vielen praktischen Anwendungen der statistischen Mechanik die Ergodenhypothese sehr wichtig ist, aber sie ist nicht grundlegend für die statistische Mechanik, nur für ihre Anwendung auf bestimmte Arten von Experimenten."

Die ergodische Hypothese wird nirgends benötigt. Siehe Teil II meines Buches Classical and Quantum Mechanics via Lie algebras für eine Behandlung der statistischen Mechanik unabhängig von Annahmen der Ergodizität oder Mischung, aber immer noch mit den üblichen Formeln der Gleichgewichtsthermodynamik.

Siehe auch : mat.univie.ac.at/~neum/physfaq/topics/ergodic.html von Arnold Neumaier selbst.