Ich bin mir sicher, dass diese Frage für diese Site ein bisschen unbeholfen ist, aber ich bin nur ein Mathematiker, der versucht, eine physikalische Intuition zusammenzusetzen.
* Frage: *Ist die statistische Interpretation der Quantenmechanik überhaupt noch brauchbar? Ist es nämlich völlig lächerlich, die Theorie so aufzufassen: Jedem System entspricht ein Hilbertraum, jeder Klasse von Präparaten eines Systems entspricht ein Zustandsfunktional und jeder Klasse von Messverfahren gibt es einen selbstadjungierten Operator, und schließlich liefert ein an einem dieser selbstadjungierten Operatoren ausgewertetes Zustandsfunktional den Erwartungswert numerischer Ergebnisse von Messungen aus der Klasse der Messverfahren , übernommen über die durch den Zustand repräsentierten Präparate?
Ich bin mir der Ungleichungen von Bell und der Tatsache bewusst, dass die statistische Interpretation in Abwesenheit von Lokalität überleben kann, und ich bin mir der jüngsten Arbeit (2012) bewusst , die feststellt, dass das psi-epistemische Bild der Quantenmechanik nicht mit Quantenvorhersagen übereinstimmt (so der Quantenzustand muss einen tatsächlich zugrunde liegenden physikalischen Zustand beschreiben und nicht nur Informationen über die Natur). Trotzdem hätte ich gerne eine kurze Zusammenfassung des aktuellen Stands der Technik bezüglich der statistischen Interpretation von QM gegenüber der agnostischen (Kopenhagener Interpretation) von QM.
Ist die statistische Interpretation tot, und wenn nicht ... wo genau steht sie?
Über ein fachkundiges Wort eines Physikers wäre ich sehr, sehr dankbar. Danke im Voraus.
BEARBEITEN: Ich habe das Wort "gemein" oben in "erwartet" geändert und auf die Artikel verlinkt, die diese Frage ausgelöst haben. Beachten Sie insbesondere, dass es hier grundsätzlich um die Frage geht, ob die von der QM vorgeschriebenen statistischen Eigenschaften auf einen einzelnen Quantenzustand oder notwendigerweise auf ein Ensemble von Präparaten angewendet werden können. Als Außenstehender erscheint es albern, einem einzelnen Zustand statistische Eigenschaften zuzuordnen, wie es in meinem ersten Link diskutiert wird. Teilt die Physik-Community diese Meinung?
BEARBEITEN: Emilio hat ferner vorgeschlagen, dass ich in dieser Frage das Wort "statistisch" durch "betrieblich" ersetze. Sie können diese Frage gerne unter der Annahme einer solchen Ersetzung beantworten (bitte geben Sie jedoch an, dass Sie dies getan haben).
Die statistische Interpretation der Quantenmechanik ist lebendig, gesund und sehr robust gegen Angriffe.
Die statistische Interpretation ist genau der Teil der Grundlagen der Quantenmechanik, in dem sich alle Physiker einig sind. Alles darüber hinaus ist in den Stiftungen umstritten.
Insbesondere die Kopenhagener Interpretation impliziert die statistische Interpretation und ist damit voll kompatibel.
Ob einem einzelnen Quantensystem ein Zustand zugeordnet werden kann, wird noch immer als umstritten angesehen, obwohl heutzutage routinemäßig mit einzelnen Quantensystemen gearbeitet wird. Die statistische Interpretation schweigt über Eigenschaften einzelner Systeme, was einer der Gründe ist, warum sie der gemeinsame Nenner aller Interpretationen sein kann.
[Hinzugefügt im Mai 2016:] Anstatt Erwartungen als ein Konzept zu interpretieren, das nur für häufige Wiederholung unter ähnlichen Bedingungen sinnvoll ist, interpretiert meine thermische Interpretation der Quantenmechanik es für ein einzelnes System auf folgende Weise, im Einklang mit der Praxis der thermischen statistischen Mechanik, mit der Ehrenfest-Theorem in der Quantenmechanik und mit der offensichtlichen Notwendigkeit, im Labor erzeugten Teilchen eine ungefähre Position zuzuschreiben, obwohl sie sich nicht in einem Positionseigenzustand befinden (der nicht existiert).
Die grundlegende thermische Interpretationsregel lautet:
Beim Messen eines hermiteschen Operators , wird das gemessene Ergebnis ungefähr sein mit einer Unsicherheit mindestens in der Größenordnung von . Wenn die Messung ausreichend oft wiederholt werden kann (an einem Objekt mit gleichem oder hinreichend ähnlichem Zustand), dann wird eine Untergrenze für die Standardabweichung der Messergebnisse sein.
Im Vergleich zur Born-Regel (die in Spezialfällen folgt) ändert dies die Ontologie vollständig: Die Interpretation gilt jetzt für ein einzelnes System, hat eine gute klassische Grenze für makroskopische Observablen und vermeidet den quantenklassischen Heisenberg-Schnitt. Damit sind die Hauptprobleme bei der Interpretation der Quantenmechanik sauber gelöst, ohne dass eine grundlegendere klassische Beschreibung eingeführt werden muss.
Wie Peter Shor richtig sagt, wird in einem Experiment / einer Messung tatsächlich nicht der Mittelwert gemessen – wie das OP schrieb – sondern einer der Eigenwerte, und die Wahrscheinlichkeiten einzelner Eigenwerte sind durch die quadrierten Absolutwerte der Amplituden gegeben . Das gilt seit den 1920er Jahren, Max Born hat den wohlverdienten Nobelpreis für die probabilistische Interpretation erhalten, und es besteht kein Zweifel, dass dies der Rahmen ist, in dem unsere Welt funktioniert. Ansonsten ist der blockzitierte Text in der ursprünglichen Frage richtig.
Die Quantenmechanik ist epistemisch, weil die Wellenfunktionen etc. das subjektive Wissen des Beobachters ausdrücken, aber im Quantensinn. Es ist auch "as ontic as you can get", weil es grundsätzlich keine "objektiven Variablen" gibt, auf deren Werte sich alle einigen würden. Trotz der grundsätzlich subjektiven Natur der Wellenfunktion in der Quantenmechanik garantiert die Theorie auch die Übereinstimmung zwischen Beobachtern usw., wann immer es die Logik oder Erfahrung erfordert.
Alle neueren und nicht so aktuellen Arbeiten, die behaupten, sie hätten ein ontisches oder erkenntnistheoretisches Bild "ausgeschlossen", haben nur naive klassische Modelle verborgener Variablen ausgeschlossen, die nichts mit der Realität zu tun haben, daher hat keine der Arbeiten irgendeine Relevanz für die Physik als die Wissenschaft, die untersucht, wie die Natur funktioniert und nicht, wie sie nicht funktioniert. Seit etwa einem halben Jahrhundert ist bekannt, dass sowohl ontische als auch epistemische Hidden-Variable-Modelle auf das Universum nicht anwendbar sind.
Ontische und epistemische Hidden-Variable-Modelle unterscheiden sich dadurch, dass sie annehmen, dass hinter der Wellenfunktion einige zusätzliche Hidden-Variablen existieren usw., aber sie gehen immer noch davon aus, dass die Welt im Grunde klassisch ist, und das ist das Problem mit diesen beiden Klassen. Um die Natur zu beschreiben, muss man den richtigen quantenmechanischen Rahmen verwenden, der weder „klassisch und ontisch“ noch „klassisch und epistemisch“ ist, weil er nicht klassisch ist! Ob die Quantenmechanik selbst als "epistemisch" bezeichnet wird, ist eine Frage der Terminologie, und ich würde sagen, ja.
Die Quantenmechanik ist eine deterministische Theorie. Das Gedankenexperiment von Lagrange gilt immer noch in seinem Rahmen: Wenn Sie in der Lage wären, den genauen Zustand des Universums zu spezifizieren, würden Sie den Zustand für alle zukünftigen Zeiten genau kennen (soweit die nicht-relativistische QM Recht hat).
Die Schwierigkeit bei der Interpretation entsteht in diesen Prozessen der „Messung“ und „Vorbereitung“, wo zwei schwierige (und verwandte) Dinge passieren.
Erstens möchten wir das System isoliert vom Rest des Universums beschreiben, und es gibt keine Garantie dafür, dass sich der Zustandsraum des Systems und der Zustandsraum des Universums gut in eine direkte Summe zerlegen lassen. Während der Vorbereitung und Messung schon gar nicht.
Zweitens ist das makroskopische Messsystem ein statistisch beschriebenes thermodynamisches System. Wir wissen sehr wenig über seinen Zustand, außer den umfangreichen und durchschnittlichen Größen (Energie, Entropie usw.), die seine thermodynamischen Größen definieren. Wenn also Teilchen an dieses komplizierte thermodynamische System koppeln (sowohl während der Messung als auch während der Präparation), kann die kombinierte Wellenfunktion nur auf statistische Weise verstanden werden. Der kombinierte Apparat/Teilchen-Zustand ist ein Element aus dem direkten Produkt der beiden Zustandsräume und bewegt sich chaotisch (ergodisch) durch diesen Zustandsraum.
Messsysteme sind eigentümlich und interessant, weil sie Hamiltonoperatoren haben, die (insofern sie gute Messgeräte sind) in nahezu eine direkte Summe der Eigenzustände des Teilchens zerfallen. Der kombinierte Zustandsvektor bewegt sich von der dünnen Brücke des Zustandsraums zwischen Eigenzuständen in den weitaus größeren Zustandsraum, der von einem einzelnen Eigenzustand dominiert wird. Wenn wir diesen Zustand in eine direkte Summe des makroskopischen und mikroskopischen Systems projizieren, finden wir (wenig überraschend), dass die Wellenfunktion in einen Eigenzustand dieses bestimmten Messoperators "kollabiert" ist. Es ist statistisch, aber deterministisch.
Zumindest kommt es mir so vor. Wenn ich hier völlig daneben liege, korrigiert mich bitte jemand.
Ich fing an, einen ziemlich langen Eintrag zu schreiben, der einige Dinge sagte, die wahrscheinlich am besten ungesagt bleiben, über Ihren Artikel, auf den verwiesen wird. Aus Gründen der konstruktiven Argumentation und Zeitersparnis möchte ich Sie jedoch auf dieses Papier von Hoffman und den zugehörigen Webartikel verweisen . Der Punkt ist klar, dass es unsinnig ist, die Messwahrscheinlichkeit von Dingen zu diskutieren, die nicht gleichzeitig gemessen werden können, aber solche Dinge haben eine klare statistische Interpretation. Dies scheint ein weit verbreitetes konzeptionelles Problem zu sein, das nun an der Wurzel zahlreicher Debatten steht.
N. Jungfrau
Peter Schor
Arnold Neumaier
Jon Bannon
Emilio Pisanty
Jon Bannon
Emilio Pisanty
N. Jungfrau
N. Jungfrau
Jon Bannon
vzn
Arnold Neumaier