Ist die statistische Interpretation der Quantenmechanik tot?

Ich bin mir sicher, dass diese Frage für diese Site ein bisschen unbeholfen ist, aber ich bin nur ein Mathematiker, der versucht, eine physikalische Intuition zusammenzusetzen.

* Frage: *Ist die statistische Interpretation der Quantenmechanik überhaupt noch brauchbar? Ist es nämlich völlig lächerlich, die Theorie so aufzufassen: Jedem System entspricht ein Hilbertraum, jeder Klasse von Präparaten eines Systems entspricht ein Zustandsfunktional und jeder Klasse von Messverfahren gibt es einen selbstadjungierten Operator, und schließlich liefert ein an einem dieser selbstadjungierten Operatoren ausgewertetes Zustandsfunktional den Erwartungswert numerischer Ergebnisse von Messungen aus der Klasse der Messverfahren , übernommen über die durch den Zustand repräsentierten Präparate?

Ich bin mir der Ungleichungen von Bell und der Tatsache bewusst, dass die statistische Interpretation in Abwesenheit von Lokalität überleben kann, und ich bin mir der jüngsten Arbeit (2012) bewusst , die feststellt, dass das psi-epistemische Bild der Quantenmechanik nicht mit Quantenvorhersagen übereinstimmt (so der Quantenzustand muss einen tatsächlich zugrunde liegenden physikalischen Zustand beschreiben und nicht nur Informationen über die Natur). Trotzdem hätte ich gerne eine kurze Zusammenfassung des aktuellen Stands der Technik bezüglich der statistischen Interpretation von QM gegenüber der agnostischen (Kopenhagener Interpretation) von QM.

Ist die statistische Interpretation tot, und wenn nicht ... wo genau steht sie?

Über ein fachkundiges Wort eines Physikers wäre ich sehr, sehr dankbar. Danke im Voraus.

BEARBEITEN: Ich habe das Wort "gemein" oben in "erwartet" geändert und auf die Artikel verlinkt, die diese Frage ausgelöst haben. Beachten Sie insbesondere, dass es hier grundsätzlich um die Frage geht, ob die von der QM vorgeschriebenen statistischen Eigenschaften auf einen einzelnen Quantenzustand oder notwendigerweise auf ein Ensemble von Präparaten angewendet werden können. Als Außenstehender erscheint es albern, einem einzelnen Zustand statistische Eigenschaften zuzuordnen, wie es in meinem ersten Link diskutiert wird. Teilt die Physik-Community diese Meinung?

BEARBEITEN: Emilio hat ferner vorgeschlagen, dass ich in dieser Frage das Wort "statistisch" durch "betrieblich" ersetze. Sie können diese Frage gerne unter der Annahme einer solchen Ersetzung beantworten (bitte geben Sie jedoch an, dass Sie dies getan haben).

Was ist diese „jüngste Arbeit (2012), die feststellt, dass das psi-epistemische Bild der Quantenmechanik inkonsistent ist“, von der Sie sprechen?
Warum "Mittelwert"? Dürfen Sie nichts zur Verteilung der Messergebnisse sagen?
@PeterShor: Das Zitat behauptet das in einem Zustand ω , ω ( EIN ) ist der Mittelwert der Beobachtungen von EIN (die natürlich Werte im Spektrum annehmen). Dies wird direkt aus der Standarddefinition von Zuständen im algebraischen Ansatz zur Quantenmechanik und QFT übernommen; siehe z. B. Bd. 3 der mathematisch-physikalischen Abhandlung von Thirring. Behauptungen über die Verteilung von Messergebnissen sind einfach Behauptungen über Mittelwerte der selbstadjungierten Projektionsoperatoren, die der spektralen Zerlegung von zugeordnet sind EIN .
Arnold hat die Aussage schön präzisiert.
Möglicherweise möchten Sie zwischen einer "statistischen" Interpretation und einer "operativen" Interpretation unterscheiden, die wahrscheinlich näher an dem liegt, was Ihr Zitat beschreibt.
@Emilio: In der Tat kann dies hilfreich sein. Ich kann den Unterschied jedoch nicht wirklich erkennen, da die Anwendung von Statistiken auf einen einzelnen Quantenzustand albern erscheint ... es sei denn, die Idee ist, dass der echte Quantenzustand selbst "statistisch" ist und daher die ähnlich vorbereiteten Systeme und ein einzelnes System nicht unterscheidbar sind.
Der Unterschied, so wie ich ihn verstehe, besteht darin, dass ein operationeller Ansatz an sich kein Postulat über die ontologische Natur des zu beschreibenden Systems aufstellt. Die Leute verstehen normalerweise "statistische" Interpretationen, um eine solche Annahme zu machen. Wie auch immer - sie sind wahrscheinlich gute Schlüsselwörter beim Googeln.
Vielen Dank für das Hinzufügen des Links zum Artikel von Pusey, Barrett und Rudolph aus dem Jahr 2012. Aber bitte beachten Sie, dass es nicht eindeutig „[begründet], dass das psi-epistemische Bild der Quantenmechanik nicht mit Quantenvorhersagen übereinstimmt“ (und dies auch nicht behauptet). Auf der ersten Seite stellen sie klar, dass ihre Argumentation auf einigen Annahmen beruht, denen nicht jeder Befürworter einer epistemischen Interpretation zustimmen wird. Diese Art von Theorem wird am besten als Einschränkung dessen interpretiert, wie eine epistemische Interpretation aussehen kann, und nicht als Widerlegung der gesamten Idee.
Darüber hinaus führen die Autoren in den abschließenden Absätzen ihres Beitrags (auf Seite 4, rechte Spalte) ein Argument dafür an, den Quantenzustand trotz ihres Theorems erkenntnistheoretisch zu interpretieren, und nennen im letzten Absatz zwei Möglichkeiten, wie dies möglich ist getan werden. Es handelt sich keineswegs um eine Abhandlung über die Widerlegung der Idee einer epistemischen Interpretation.
@Nathaniel: Danke für die klärenden Kommentare. Mein Verständnis für dieses Zeug ist begrenzt.
Fyi neuer/mehr Analyseaufwand in Spielzeugmodellen von QM
Ihr erster Link funktioniert nicht mehr.

Antworten (4)

Die statistische Interpretation der Quantenmechanik ist lebendig, gesund und sehr robust gegen Angriffe.

Die statistische Interpretation ist genau der Teil der Grundlagen der Quantenmechanik, in dem sich alle Physiker einig sind. Alles darüber hinaus ist in den Stiftungen umstritten.

Insbesondere die Kopenhagener Interpretation impliziert die statistische Interpretation und ist damit voll kompatibel.

Ob einem einzelnen Quantensystem ein Zustand zugeordnet werden kann, wird noch immer als umstritten angesehen, obwohl heutzutage routinemäßig mit einzelnen Quantensystemen gearbeitet wird. Die statistische Interpretation schweigt über Eigenschaften einzelner Systeme, was einer der Gründe ist, warum sie der gemeinsame Nenner aller Interpretationen sein kann.

[Hinzugefügt im Mai 2016:] Anstatt Erwartungen als ein Konzept zu interpretieren, das nur für häufige Wiederholung unter ähnlichen Bedingungen sinnvoll ist, interpretiert meine thermische Interpretation der Quantenmechanik es für ein einzelnes System auf folgende Weise, im Einklang mit der Praxis der thermischen statistischen Mechanik, mit der Ehrenfest-Theorem in der Quantenmechanik und mit der offensichtlichen Notwendigkeit, im Labor erzeugten Teilchen eine ungefähre Position zuzuschreiben, obwohl sie sich nicht in einem Positionseigenzustand befinden (der nicht existiert).

Die grundlegende thermische Interpretationsregel lautet:

Beim Messen eines hermiteschen Operators EIN , wird das gemessene Ergebnis ungefähr sein EIN ¯ = EIN mit einer Unsicherheit mindestens in der Größenordnung von σ EIN = ( EIN EIN ¯ ) 2 . Wenn die Messung ausreichend oft wiederholt werden kann (an einem Objekt mit gleichem oder hinreichend ähnlichem Zustand), dann σ EIN wird eine Untergrenze für die Standardabweichung der Messergebnisse sein.

Im Vergleich zur Born-Regel (die in Spezialfällen folgt) ändert dies die Ontologie vollständig: Die Interpretation gilt jetzt für ein einzelnes System, hat eine gute klassische Grenze für makroskopische Observablen und vermeidet den quantenklassischen Heisenberg-Schnitt. Damit sind die Hauptprobleme bei der Interpretation der Quantenmechanik sauber gelöst, ohne dass eine grundlegendere klassische Beschreibung eingeführt werden muss.

Arnold, wenn ich mich für diese Seite registriert hätte, würde ich deine Antwort positiv bewerten. Ich werde hier auf die Implikation eingehen. (Wenn es trivial ist, warum Kopenhagen statistisch impliziert, würde ich wirklich gerne eine kurze Zusammenfassung des Beweises sehen!)
@JonBannon: Ein Teil der Kopenhagener Interpretation ist die Bornsche Regel, aus der man die statistischen Eigenschaften der Zustände leicht ableiten kann. Dies geschieht am Anfang jedes Textes zur statistischen Mechanik. vgl. en.wikipedia.org/wiki/Density_matrix
Arnold hat Recht. Die Probleme mit der Lokalität beginnen erst, wenn Sie versuchen, die statistische Interpretation weiter zu führen und darauf bestehen, dass alle Ergebnisse aller Observablen eine gemeinsame Wahrscheinlichkeitsverteilung haben müssen. Sagen Sie, ob Sie das für ein Teilchenpaar benötigen p ( x 1 , x 2 , p 1 , p 2 ) existiert, wo x ich , p ich Ort und Impuls sind, dann können Sie zeigen, dass die Bellsche Ungleichung immer dann erfüllt ist, wenn Observablen Impuls und Ort entsprechen. Wenn Sie diese Anforderung auf alle Observablen erweitern, stellen Sie fest, dass die Bell-Ungleichung immer erfüllt ist. So weit genau kann man mit Statistiken gehen.
@SMeznaric: Deine Ideen zu gemeinsamen Wahrscheinlichkeiten sind interessant. Können Sie eine Referenz angeben, in der dies ausführlich diskutiert wird? Mir scheint, dass das Problem darin liegen könnte, dass wir die klassische Wahrscheinlichkeit auf etwas anwenden, das eine nichtkommutative Wahrscheinlichkeitstheorie erfordert. (Ich gehe hier auf die Beine und sage, dass die Annahme der klassischen Unabhängigkeit mehrerer Systeme, dh der Tensorproduktbeziehung in den üblichen QM-Postulaten, schrecklich optimistisch erscheint!)
Ja, Bell-Ungleichungen reduzieren sich im Grunde auf das Randproblem, bei dem Sie bei einer Reihe von Randwahrscheinlichkeitsverteilungen keine gemeinsame Verteilung konstruieren können. Wenn Sie könnten, wären die Bell-Ungleichungen erfüllt. Wir hatten eine Diskussion darüber auf mathoverflow ( mathoverflow.net/questions/107007/… ) und ich schreibe derzeit auch eine Doktorarbeit, die eine Diskussion darüber beinhalten wird. Bei Interesse kann ich es Ihnen per E-Mail zusenden. Ich habe keine andere Referenz gefunden, wo dies direkt bewiesen wird.
@SMeznaric: Ich bin sehr interessiert. Bitte senden Sie mir eine Kopie.
Ah! Ich habe gerade die Bearbeitung bemerkt. Diese thermische Interpretation ist interessant ... da ich mich über die Annahme des statistischen Mittels gewundert habe ... danke, dass Sie dies gepostet haben.

Wie Peter Shor richtig sagt, wird in einem Experiment / einer Messung tatsächlich nicht der Mittelwert gemessen – wie das OP schrieb – sondern einer der Eigenwerte, und die Wahrscheinlichkeiten einzelner Eigenwerte sind durch die quadrierten Absolutwerte der Amplituden gegeben . Das gilt seit den 1920er Jahren, Max Born hat den wohlverdienten Nobelpreis für die probabilistische Interpretation erhalten, und es besteht kein Zweifel, dass dies der Rahmen ist, in dem unsere Welt funktioniert. Ansonsten ist der blockzitierte Text in der ursprünglichen Frage richtig.

Die Quantenmechanik ist epistemisch, weil die Wellenfunktionen etc. das subjektive Wissen des Beobachters ausdrücken, aber im Quantensinn. Es ist auch "as ontic as you can get", weil es grundsätzlich keine "objektiven Variablen" gibt, auf deren Werte sich alle einigen würden. Trotz der grundsätzlich subjektiven Natur der Wellenfunktion in der Quantenmechanik garantiert die Theorie auch die Übereinstimmung zwischen Beobachtern usw., wann immer es die Logik oder Erfahrung erfordert.

Alle neueren und nicht so aktuellen Arbeiten, die behaupten, sie hätten ein ontisches oder erkenntnistheoretisches Bild "ausgeschlossen", haben nur naive klassische Modelle verborgener Variablen ausgeschlossen, die nichts mit der Realität zu tun haben, daher hat keine der Arbeiten irgendeine Relevanz für die Physik als die Wissenschaft, die untersucht, wie die Natur funktioniert und nicht, wie sie nicht funktioniert. Seit etwa einem halben Jahrhundert ist bekannt, dass sowohl ontische als auch epistemische Hidden-Variable-Modelle auf das Universum nicht anwendbar sind.

Ontische und epistemische Hidden-Variable-Modelle unterscheiden sich dadurch, dass sie annehmen, dass hinter der Wellenfunktion einige zusätzliche Hidden-Variablen existieren usw., aber sie gehen immer noch davon aus, dass die Welt im Grunde klassisch ist, und das ist das Problem mit diesen beiden Klassen. Um die Natur zu beschreiben, muss man den richtigen quantenmechanischen Rahmen verwenden, der weder „klassisch und ontisch“ noch „klassisch und epistemisch“ ist, weil er nicht klassisch ist! Ob die Quantenmechanik selbst als "epistemisch" bezeichnet wird, ist eine Frage der Terminologie, und ich würde sagen, ja.

In der Quantenmechanik gibt es nichts Subjektives. Im Gegensatz zu dem, was Sie schreiben, handelt es sich bei den mit Messzeigern oder Zählern verbundenen Variablen um objektive Variablen, deren Werte von allen als objektive Messergebnisse vereinbart werden. Sonst könnten wir nicht einmal ein einziges wissenschaftliches Experiment durchführen.
Liebe Lubos, meine Behauptung war nicht, dass eine Einzelmessung einen Mittelwert ergibt. Was ich hier suche, ist keine Aussage wie „Sowohl ontische als auch epistemische Hidden-Variable-Modelle sind seit etwa einem halben Jahrhundert als unanwendbar auf das Universum bekannt“, sondern eine prägnante Zusammenfassung der Details dieser Tatsache. Danke für die Antwort!
Diese angebotene «Antwort» ist ein reines Gewebe von Behauptungen und nicht brauchbar. Es scheint etwas an diesem Thema zu sein, das die Dogmatik auf allen Seiten zum Vorschein bringt ...

Die Quantenmechanik ist eine deterministische Theorie. Das Gedankenexperiment von Lagrange gilt immer noch in seinem Rahmen: Wenn Sie in der Lage wären, den genauen Zustand des Universums zu spezifizieren, würden Sie den Zustand für alle zukünftigen Zeiten genau kennen (soweit die nicht-relativistische QM Recht hat).

Die Schwierigkeit bei der Interpretation entsteht in diesen Prozessen der „Messung“ und „Vorbereitung“, wo zwei schwierige (und verwandte) Dinge passieren.

Erstens möchten wir das System isoliert vom Rest des Universums beschreiben, und es gibt keine Garantie dafür, dass sich der Zustandsraum des Systems und der Zustandsraum des Universums gut in eine direkte Summe zerlegen lassen. Während der Vorbereitung und Messung schon gar nicht.

Zweitens ist das makroskopische Messsystem ein statistisch beschriebenes thermodynamisches System. Wir wissen sehr wenig über seinen Zustand, außer den umfangreichen und durchschnittlichen Größen (Energie, Entropie usw.), die seine thermodynamischen Größen definieren. Wenn also Teilchen an dieses komplizierte thermodynamische System koppeln (sowohl während der Messung als auch während der Präparation), kann die kombinierte Wellenfunktion nur auf statistische Weise verstanden werden. Der kombinierte Apparat/Teilchen-Zustand ist ein Element aus dem direkten Produkt der beiden Zustandsräume und bewegt sich chaotisch (ergodisch) durch diesen Zustandsraum.

Messsysteme sind eigentümlich und interessant, weil sie Hamiltonoperatoren haben, die (insofern sie gute Messgeräte sind) in nahezu eine direkte Summe der Eigenzustände des Teilchens zerfallen. Der kombinierte Zustandsvektor bewegt sich von der dünnen Brücke des Zustandsraums zwischen Eigenzuständen in den weitaus größeren Zustandsraum, der von einem einzelnen Eigenzustand dominiert wird. Wenn wir diesen Zustand in eine direkte Summe des makroskopischen und mikroskopischen Systems projizieren, finden wir (wenig überraschend), dass die Wellenfunktion in einen Eigenzustand dieses bestimmten Messoperators "kollabiert" ist. Es ist statistisch, aber deterministisch.

Zumindest kommt es mir so vor. Wenn ich hier völlig daneben liege, korrigiert mich bitte jemand.

Weitere Überlegungen ... Während die Thermalisierung mit dem Messgerät die Dekohärenz erklärt und warum die verschiedenen Eigenzustände, aus denen sich unser ursprünglicher Zustand zusammensetzte, nicht mehr interferieren, erklärt es nicht wirklich, warum makroskopische Systeme nicht gleichzeitig an mehreren Makrozuständen teilnehmen können . Unser zusammengesetzter Zustand sollte sich in alle Unterräume des Messungs-Hamilton-Operators ausbreiten, nur wird es keine Interferenz zwischen den Zuständen geben ... Ich denke, Sie sehen, wohin das führt. Darüber nachzudenken, hat mich zu einem Vielweltler gemacht. Tut mir leid, ich könnte nicht sturer sein. :(

Ich fing an, einen ziemlich langen Eintrag zu schreiben, der einige Dinge sagte, die wahrscheinlich am besten ungesagt bleiben, über Ihren Artikel, auf den verwiesen wird. Aus Gründen der konstruktiven Argumentation und Zeitersparnis möchte ich Sie jedoch auf dieses Papier von Hoffman und den zugehörigen Webartikel verweisen . Der Punkt ist klar, dass es unsinnig ist, die Messwahrscheinlichkeit von Dingen zu diskutieren, die nicht gleichzeitig gemessen werden können, aber solche Dinge haben eine klare statistische Interpretation. Dies scheint ein weit verbreitetes konzeptionelles Problem zu sein, das nun an der Wurzel zahlreicher Debatten steht.

Ich weiß es zu schätzen, dass Sie sich der Polemik enthalten. (Mein kleines Boot ist hier in einem ziemlichen Sturm gelandet, wie es scheint.)