Wurde Jaynes' Argument für die Quantenmechanik als mögliche Inferenztheorie entlarvt?

Nach meinem Verständnis gibt es derzeit keinen wissenschaftlichen Konsens darüber, welche Interpretation der Quantenphysik die richtige ist, wenn überhaupt. Die berühmteste, vielleicht aus historischen Gründen, ist die Kopenhagener Interpretation, obwohl ich mir immer nicht sicher bin, inwieweit sie normalerweise akzeptiert wird.

Kürzlich bin ich auf einen Artikel mit dem Titel Probability in Quantum Theory von ET Jaynes gestoßen, in dem Jaynes argumentiert, dass die Kopenhagener Interpretation ein hervorragendes Beispiel für ein Durcheinander von erkenntnistheoretischen (in Bezug auf Schlussfolgerungen) und ontologischen (in Bezug auf physikalische Realität) ist. Ansichten.

Um etwas Kontext zu liefern: Jaynes hatte viel Erfolg bei der Lösung langjähriger Probleme in einer Vielzahl von Bereichen, indem er seine Interpretation der Wahrscheinlichkeit als Erweiterung der Logik verwendete (es läuft im Grunde auf objektive Bayes'sche Inferenz hinaus). Für Jaynes stellen Wahrscheinlichkeiten nur unvollständige Informationen über ein System dar, eine Ansicht, die offensichtlich auf Probleme in der Quantenmechanik stößt, wo Wahrscheinlichkeiten grundlegend erscheinen.

Nun zum Papier: Ich möchte die Aufmerksamkeit besonders auf die Seiten 4-11 lenken, wo das Hauptargument präsentiert wird. Wenn ich das richtig verstehe, ist Jaynes Argument nicht spezifisch für die Kopenhagener Interpretation an sich. Vielmehr benutzt er es als bequemes "Ziel" - wenn man so will - um seinen Standpunkt zu verdeutlichen, dass sich Wahrscheinlichkeiten in der Quantenmechanik grundlegend von klassischen Wahrscheinlichkeiten unterscheiden (wie allgemein bekannt ist) und dass der offensichtliche nächste Schritt dann darin besteht, danach zu suchen ein neuer Hypothesenraum, in dem Wahrscheinlichkeiten tatsächlich Schlussfolgerungen darstellen.

Das Papier enthält einige Erwähnungen der historischen Bohr-Einstein (EPR)-Debatte und behauptet, dass ein Großteil der Verwirrung, die sie umgibt, das Ergebnis dieses Durcheinanders erkenntnistheoretischer und ontologischer Aussagen ist.

Nun zu meinem speziellen Problem: Ich konnte keine Kritik an Jaynes' Argumenten finden, noch habe ich viele Referenzen gefunden, die in die (für mich ziemlich vielversprechende) Richtung weitergehen, die auf Seite 10 vorgeschlagen wurde: `die Variablen von auszustellen der tiefere Hypothesenraum explizit'. Wenn Jaynes in irgendeiner Weise Recht hat, scheint dies eine vielversprechende Richtung für zukünftige Forschung zu sein, und daher bin ich überrascht, dass so wenige Artikel zu diesem Thema veröffentlicht wurden.

Übersehe ich offensichtliche Kritik und/oder Veröffentlichungen? Oder ist diese Sichtweise einfach ihrem umstrittenen Format und der Tatsache zum Opfer gefallen, dass Jaynes selbst kurze Zeit nach ihrer Veröffentlichung starb?

PS Für zusätzlichen Kontext kann diese Frage als Folgefrage zu ` Wurde Jaynes' Argument gegen Bells Theorem entlarvt werden? '. Einer der dort verlinkten Kommentare zu diesem Blogbeitrag behauptet, dass Jaynes mit seiner Behauptung, dass eine Theorie versteckter Variablen die Quantenmechanik erklären könnte, tatsächlich falsch lag. Ich stimme dieser Kritik zu, aber das Papier, das Gegenstand meiner aktuellen Frage ist, scheint einen ganz neuen Ansatz zu verfolgen. Ich bin mir nicht sicher, ob dies der Fall ist (es könnte sein, dass die im Blog-Beitrag verlinkten Artikel dieses neue Argument von Jaynes ebenfalls entlarven), daher würde ich mich auch über jede Antwort freuen, die dies aufklärt.

Antworten (2)

Den interessantesten Ansatz in diese Richtung halte ich für Catichas Entropic Dynamics, zB in seiner "Entropical Dynamics, Time and Quantum Theory", arxiv:1005.2357. „Die Quantenmechanik wird als Anwendung der Methode der maximalen Entropie abgeleitet. Es wird kein zugrundeliegendes klassisches Wirkungsprinzip, ob deterministisch oder stochastisch, herangezogen. … Sowohl die Größe als auch die Phase der Wellenfunktion werden statistisch interpretiert: die Größe gibt die Verteilung von x in Übereinstimmung mit der üblichen Born-Regel an und die Phase enthält Informationen über die Entropie S(x) der zusätzlichen Variablen.

Das sieht also nach einer erfolgreichen Umsetzung von Jaynes' Hoffnungen aus. Ich denke, dass einige andere moderne Ansätze aus der Quanteninformationsgemeinschaft, wie G. Chiribella, GM D'Ariano, P. Perinotti, , Quantum from Principles, arxiv:1506.00398, auch nicht so weit von Jaynes' Ideen entfernt sind.

es scheint noch nie in einem Peer-Review-Journal veröffentlicht worden zu sein, und der Name „Bell“ erscheint nicht im Text
Caticha veröffentlicht, iopscience.iop.org/article/10.1088/1751-8113/44/22/225303/meta Chiribella et al. link.springer.com/book/10.1007%2F978-94-017-7303-4 und angesichts der Formulierung der Frage Ich verstehe nicht, warum die Erwähnung von Bell für die Entwicklung von Jaynes Ansatz zur Interpretation von QT als Inferenztheorie obligatorisch sein sollte.
Bell wird in der neuesten Bearbeitung der Frage erwähnt, und es ist das Bells-Theorem, das deterministische Modelle afaik auf nicht lokale Modelle beschränkt.
Gut, aber wie ich es sehe, ist "Bell" nur in einem PS in Bezug auf eine andere Frage, in der Bell genauer betrachtet wird. Natürlich müssen vernünftige Vorschläge für eine Interpretation von QT als Inferenz sowieso realistisch sein (zu guter Letzt macht es keinen Sinn, Rückschlüsse auf etwas zu ziehen, das nicht wirklich existiert), und müssen daher nicht-Einstein-lokal sein ( Das zu nennen, ist völlig irreführend, eine lokale Theorie kann 100000 c als maximale Geschwindigkeit der Informationsübertragung haben, wäre aber dennoch lokal).
@anna Ich möchte darauf hinweisen, dass das Bellsche Theorem oder mehr noch die Kopenhagener Interpretation aufgrund des globalen, sofortigen Zusammenbruchs der Wellenfunktion auch nicht deterministische Modelle auf nicht lokale Modelle beschränkt.
@MikeFlynn es sind alles mathematische Formeln. Die Wellenfunktion ist kein Ballon. Wenn sich die Randbedingungen ändern, muss eine andere Wellenfunktion mit den neuen Randbedingungen berechnet werden. Ist so augenblicklich wie die Änderung der Feynman-Diagramme, die in die Berechnungen eingehen.
@annav Ich bin anderer Meinung - es sind nicht alle mathematischen Formeln. Schließlich sprechen wir speziell über die Interpretation dieser mathematischen Formeln. Und wenn Sie sich der Kopenhagener Interpretation anschließen, glauben Sie, dass es bei der Messung eine nicht-lokale Diskontinuität in der Wellenfunktion zum Zeitpunkt der Messung gibt, die zu der neuen Wellenfunktion führt.

Ich habe viele Jahre damit verbracht, eine realistische Darstellung der (nicht-relativistischen) Quantenmechanik zu formulieren, indem ich einen rational-bayesischen Ansatz zur Wahrscheinlichkeit ähnlich dem von Jaynes verwendete. Ich war auch von der Idee von Feynman motiviert, dass Wahrscheinlichkeiten besser durch komplexe Zahlen dargestellt werden könnten als durch nicht negative reelle Zahlen, wie es traditionell der Fall ist.

Ich gehe davon aus, dass alle üblichen Eigenschaften (Teilchenpositionen, Spins, Impulse usw.) tatsächlich von einem System besessen werden und nicht nur ein Produkt von Messungen sind. Ich habe nach der einfachsten komplexwertigen Wahrscheinlichkeitstheorie und den einfachstmöglichen physikalischen Gesetzen (meistens allgemeiner Art) gesucht, die den üblichen quantenmechanischen Formalismus reproduzieren. Die „neue“ Wahrscheinlichkeitstheorie beinhaltet Erweiterungen der Methoden, die Jaynes verwendet, um frühere Wahrscheinlichkeiten zu finden (das Indifferenzprinzip und die Methode der Transformationsgruppen). Auch das Prinzip der maximalen Entropie wird angewendet.

Auf diese Weise wird meines Erachtens Licht auf die physikalische Natur von Teilchen geworfen, was es ermöglicht, sich ein präziseres und realistischeres physikalisches Bild von Systemen im Kopf zu bilden. Zum Beispiel befindet sich ein Elektron immer an einem bestimmten Punkt (nicht irgendwie an zwei oder mehr Punkten gleichzeitig) und bewegt sich kontinuierlich durch den Raum, obwohl es, wie es scheint, selbst in den kleinsten Maßstäben nicht auf einer glatten Bahn verläuft. Der Impuls scheint eine innere Eigenschaft eines Elektrons zu sein, wie sein Spindrehimpuls und so weiter.

Die angenommenen physikalischen Gesetze reichen bei weitem nicht aus, um Partikelbewegungen vollständig vorherzusagen, aber bei Kenntnis bestimmter Partikeleigenschaften können wir die Wahrscheinlichkeiten anderer durch Bayes'sche Methoden berechnen. Messungen können modelliert werden und der Kollaps der Wellenfunktion folgt auf natürliche Weise, wenn wir neue Erkenntnisse gewinnen, die auf der Beobachtung (oder Nichtbeobachtung) von Partikeln basieren, die sich im klassischen Grenzbereich bewegen.

Ein neuer Aspekt der Wahrscheinlichkeitstheorie betrifft die Bedeutung einer (komplexwertigen) Wahrscheinlichkeit, deren quadrierter Betrag gleich 1 ist. Nur wenn die Phase der Wahrscheinlichkeit bestimmt ist, tritt das betreffende Ereignis sicher ein. Andernfalls können wir nur erwarten , dass es auftritt. Es könnte sein, dass der Erwerb des Wissens, über das wir verfügen, dazu geführt hat, dass es auftritt, oder dass wir es logischerweise erwarten sollten (mit dem Vorbehalt, dass wir uns irren). Mit dieser (sehr bayesianischen!) Regel scheint es möglich, die Argumente (Bell-Ungleichungen, Kochen-Specker-Paradoxon) aufzulösen, dass die Behauptung, wirklichen Besitz von Eigentum zu zeigen, nur zu Widersprüchen führen kann.

Wenn jemand Interesse hat, sich diese Arbeit anzusehen, kann ich ihnen ein pdf schicken, das sie enthält. Den Abstract zur Publikation finden Sie in meinem LinkedIn-Profil.

+1 für den Mut :) Es sind zu viele John Hemps verlinkt, um Sie zu finden. Könnten Sie die Arbeit zB auf arxiv hochladen und hier verlinken oder zumindest den Link zu Ihrem Profil bereitstellen?
Vielen Dank für Ihr Interesse Hennadii. Sie finden das PDF kostenlos unter vixra.org/abs/1802.0030