Konsequenzen des neuen Theorems in der QM?

Es scheint ein neues Theorem zu geben, das die Spielregeln in der Interpretationsdebatte um QM verändert:

http://www.nature.com/news/quantum-theorem-shakes-foundations-1.9392

Bleiben also nur Bohm, Everett und GRW als mögliche Kandidaten?

Nein, es scheint, dass sie gegen die statistische Interpretation sprechen, also lässt es alles andere.
Offenbar sprechen sie gegen eine Interpretation als rein statistisch signifikant. Ich kenne niemanden, der darauf bestand. Dies ist ein oft verwendeter Schwindel von "Wissenschaftsautoren" (und anderen Schreibern), um einen Antagonismus zu erfinden, der dann durch "neue" Ergebnisse/Erkenntnisse/Theorien gelöst/entschieden wird... Jemand hat das mit der Tatsache verglichen, dass Frösche anfangen zu sehen und nicht vorhandene Fliegen fangen, wenn länger als 10 Minuten keine Fliege in der Nähe ist.
@Georg: Sie argumentieren nicht gegen einen Strohmann --- Ich habe diese Interpretation oft gesehen, obwohl ich sie selbst nie ernst genommen habe. Es ist wichtig zu beachten, dass die Wellenfunktion zu groß ist, um eine reale Einheit zu sein, wenn das Universum klassische Berechnungen durchführt, und da unser Gehirn sicherlich klassische Berechnungen durchführt, verleiht die Quantenmechanik dem Universum einen im Wesentlichen unerkennbaren Charakter. Es gibt Leute, die nach Reduktionen der Quantenmechanik suchen, und dieser Satz ist eine nützliche Anleitung. Es ist ein einfaches Argument, aber das sollte kein Schlag dagegen sein.
Hallo Ron, mein Kommentar bezog sich teilweise auf die Autoren, teilweise auf diese Frau Reich. Sie ist bekannt als "Wissenschafts"-Autorin, die gerne und viel übertreibt. Solche Sensationsgier à la Bildzeitung ist widerlich.
@RonMaimon Ich stimme nicht zu, dass unser Gehirn "sicherlich klassische Berechnungen durchführt". Die Metaebene der trainierten Logik ja. Grundlegende Denkstrukturen, das Unbewusste usw. sind höchst probabilistisch und holographisch. Eigentlich nahe an den Wahrscheinlichkeiten einer Wellenfunktion, qualitativ, imo. Wir nennen es normalerweise "Intuition".
@anna v: Ich meinte klassische Berechnung im Gegensatz zu Quantenberechnung, nicht klassische Berechnung im Vergleich zu probabilistischer Berechnung. Ich stimme zu, dass es Komponenten des Denkens gibt, die verteilt und probabilistisch sind, aber das gilt für mich als klassisch, weil wir Neuronenteile nicht intern in Superpostionen stecken und sie durch Quantengatter laufen lassen können.
@RonMaimon Ich denke, die Jury sollte sich noch darüber unterhalten, bis wir wirklich wissen, wie Neuronen und die ganze Sache mit der Gedankenerzeugung funktionieren.
@anna v: Um nicht geheim zu sein, ist meine persönliche Meinung, dass das Gedächtnis in Neuronen mit Tickerbändern von membrangebundenen RNA-Molekülen funktioniert, die Spike-Trains zwischen Neuronen aufzeichnen und erzeugen, dass der größte Teil der Berechnung klassische stochastische Doppelbindung ist /Cut/Splice-Operationen an synaptischer RNA und im Hauptkörper der Zelle, mit langsamerem Transport dieser Gedächtnis-enthaltenden RNAs in den und aus dem Körper. Niemand sonst denkt das, mit der möglichen Ausnahme von John Mattick in Australien. Dies ist eine rein theoretische Idee, basierend auf dem lächerlich kleinen RAM neuronaler Netze, ~ 1 Bit / Zelle.
@anna v: Aber was auch immer der Mechanismus ist, es ist unmöglich, sich kohärente Überlagerungen in Neuronen bei Raumtemperatur vorzustellen, wenn man bedenkt, wie schwierig es ist, die Dekohärenz zu kontrollieren. Die den Neuronen zur Verfügung stehende Informationsspeicherung ist rein klassisch und rein diskret. Sie können keine kontinuierlichen Variablendaten speichern, aus dem einfachen Grund, dass zwei ausreichend nahe beieinander liegende reelle Variablen nicht genau unterschieden werden können und daher die Far-Bit-Daten nicht gelesen werden können. Diese Diskretion wurde in der Biologie nie richtig gewürdigt, aber das wird sich ändern.
@anna v: Ich unterschätze nicht, dass die Berechnung im Kopf massiv ist - der ungefähre Speicherinhalt in der RNA einer Zelle beträgt 1 Gbyte / Zelle (pro Zelle !!), und in Neuronen mit unabhängigen Synapsen Sie könnte 10 Gbyte/Zelle haben, mit 10 Billionen Zellen oder 100 Milliarden Terabyte pro Gehirn, wobei jedes Megabyte eine unabhängige Berechnung mit der molekularen, nicht zellulären, Taktrate von vielen Megahertz durchführt. In einem solchen Modell ist es nicht unmöglich zu sehen, wie Intuitionsphänomene auf Gehirnebene entstehen können. Ich muss sagen, dass das alles eine rein theoretische Idee von mir ist, niemand ist damit einverstanden.
@RonMaimon Theorien sind in Ordnung, es fehlen experimentelle Beweise. Ich verfolge das Gebiet nicht, aber ich erinnere mich an Fragen, ob Neuronen vor einiger Zeit Supraleitung bei Raumtemperatur zeigen. Ohne zu leugnen, dass die Effekte bei der Größe der DNA selbst in Ihrem Modell quantenmechanisch wären. Wie auch immer, wie das Kristallverhalten zeigt, kann die Quantenmechanik weitreichende Manifestationen haben, und vielleicht verwendet die DNA nur die Körperchemie, um einen großen "Kristall" zu orchestrieren (ein Modell aus dem Stegreif :)). Es ist ein interessantes Feld, das experimentell noch erforscht werden muss.
@anna v: Selbst wenn Neuronen supraleitend wären, können Sie Supraleiter nicht für Quantenberechnungen verwenden, da Supraleiter klassische Wellengrenzwerte sind und ihr Kondensatfeld einen klassischen Wert hat. Klassische Wellen können für Quantencomputing ebensowenig verwendet werden wie klassische Teilchen. Man braucht feine kohärente Überlagerungen zwischen relativ weit entfernten Objekten, die vollständig verschränkt sind, um einen Quantencomputer zu haben, und Supraleitung hilft in dieser Hinsicht nicht (zumindest nicht auf offensichtliche Weise).

Antworten (5)

Ich glaube, dass dieses Theorem, obwohl es einfach ist, einigermaßen nützlich ist, weil es eine bestimmte Klasse von Interpretationen der Quantenmechanik ausschließt, obwohl keine davon die Standardinterpretationen sind, die Sie in Büchern finden. Für Leute, die an die Kopenhagener Interpretation (oder viele Welten/viele Gedanken/CCC oder sogar Bohm) glauben, ist die Wellenfunktion der physikalische Zustand des Systems, und dieses Ergebnis beweist etwas Leeres, nämlich den Parameter λ die den geheimen wahren Zustand des Systems beschreibt, enthält zumindest die Wellenfunktion. Aber es ist die Wellenfunktion! Dieses Theorem hat diesen Leuten also nichts zu sagen, und das ist das Ende der Geschichte. Die erste Antwort, die Sie bekamen, drückte diesen Standpunkt aus.

In dem Maße, in dem ich mit der Standardinterpretation zufrieden bin, habe ich auch die gleiche Reaktion auf das Theorem – hier gibt es nichts Neues. Aber die Interpretationen, die das Theorem anspricht, sind keine wirklichen Interpretationen, sie sind Versuche neuer Theorien, und um sie zu verstehen, muss man sich der genauen Art und Weise bewusst sein, in der die Quantenmechanik mit der Intuition in Konflikt gerät. Es ist schwierig, dies in der klassischen Literatur zu finden, da diese Literatur geschrieben wurde, bevor die Menschen sich mit dem Begriff des Rechnens anfreunden konnten.

Ich glaube die folgenden Ideen in etwa 40% der Fälle. Meistens glaube ich an die Viele-Welten-Interpretation. Ich sehe keinen Sinn darin, zwischen philosophischen Optionen zu unterscheiden, die positivistisch äquivalent sind, oder äquivalent zu modulo-philosophischem Hokuspokus, also betrachte ich Viele-Welten als äquivalent (modulo Hokuspokus) zu Kopenhagen, zu Bewusstsein verursacht Zusammenbruch, zu Dekohärenz , und für viele Köpfe, und ich bin gleichermaßen glücklich, jede dieser Sprachen zur Beschreibung der Standard-Quantenmechanik zu verwenden (obwohl viele Welten intuitiver ist). Diese Methoden erzeugen denselben Algorithmus zur Simulation eines Teils des Universums.

Bohm ist anders, weil es zusätzliche Daten in der Simulation gibt, die Partikelpositionen (oder die skalaren Feldwerte), die als reelles Orakel fungieren, das das Ergebnis von Experimenten bestimmt, und das bedeutet, dass die Zufälligkeit aus einer anderen Quelle kommt , daher halte ich es nicht für müßige Philosophie, Bohm von anderen zu unterscheiden.

Aber keine dieser Interpretationen ist aus rein rechnerischer Sicht philosophisch befriedigend. Es gibt noch keine Theorie, die vom Standpunkt der Berechnung aus zufriedenstellend ist, und vielleicht ist eine solche Theorie unmöglich. Aber es wäre schön, eine alternative Theorie zu finden oder zu beweisen, dass dies mit guten Annahmen unmöglich ist. Um die Annahmen zu finden, gibt es oft nicht explizit genannte Teilkriterien, die Befürworter auf der Suche nach einer befriedigenderen Theorie oft verwenden. Ich werde sie im Folgenden zusammenstellen und erklären, welche Klasse von Theorien das neue Ergebnis am Ende ausschließt.

Die Quantenmechanik ist zu groß, um physikalisch zu sein

Das grundlegende Problem, das Menschen mit der Quantenmechanik haben, wurde bereits von Einstein aufgezeigt, und das ist die Schrödinger-Katze. Die Wellenfunktion für N Teilchen hat ungefähr die gleiche Größe wie eine Wahrscheinlichkeitsverteilung auf den N Teilchen, und mathematische Objekte mit solch enormen Dimensionen tauchen normalerweise nur auf, wenn sie sich auf Größen beziehen, die unsere Informationen über ein großes System messen, nicht für Größen, die den Zustand von darstellen ein System. In der klassischen Mechanik wächst die Anzahl der Zustandsvariablen linear mit der Anzahl der Teilchen, aber die Anzahl der Variablen, die benötigt werden, um eine Wahrscheinlichkeitsverteilung der Position der Teilchen zu beschreiben, wächst exponentiell. Das exponentielle Wachstum ist in der Wahrscheinlichkeit nicht paradox, weil Sie sich vorstellen können, dass es eine reale Position unter der Verteilung gibt,

Der Quantenzustand bestimmt den Quantenzustand in der Zukunft auf rein lineare Weise, also entwickelt er sich auf eine Weise, die darauf hindeutet, dass er ein Maß für unsere Unkenntnis einiger Variablen ist, wie eine Projektion einer sehr hochdimensionalen Wahrscheinlichkeitsverteilung, nicht in eine Weise, die darauf hindeutet, dass es sich um ein wahres Maß für die Physik der Objekte handelt. Aber in der Quantenmechanik ist die Wellenfunktion eine physikalische Einheit – sie ist ein Maß für die Physik. Eine Wellenfunktion ist die bestmögliche vollständige Spezifikation des physikalischen Zustands eines isolierten Systems.

Abgesehen vom Grundzustand eines bosonischen Systems gibt es keine produktive Möglichkeit, die Berechnung in der Quantenmechanik mit Monte-Carlo zu reduzieren. Aufgrund des Shor-Algorithmus ist dies jetzt fast ein Theorem. Nehmen wir nur an, dass das Faktorisieren ganzer Zahlen in der Natur eine Suche erfordert (und Shors Algorithmus selbst bietet keine klassische Methode zum Faktorisieren, die besser ist als eine blinde Suche). Selbst wenn es einen äußerst cleveren Weg gäbe, eine blinde Suche im Faktorisieren zu vermeiden, müsste die Natur diese Methode herausfinden, während ein Quantencomputer läuft, ohne dass Hinweise vom Quantenalgorithmus kommen, sodass die effiziente Methode eng mit verwandt sein müsste Shors Algorithmus, und es ist unwahrscheinlich, dass ein solcher Algorithmus existiert, selbst wenn ein sehr komplizierter unabhängiger guter Faktorisierungsalgorithmus existiert.

Die Quantenmechanik ist also nicht wie die Wahrscheinlichkeit, die verschiedenen probabilistischen Zweige sind in der Lage, gerade genug Informationen zwischen den Zweigen zu übertragen, um nicht triviale Rechenaufgaben mit exponentieller Beschleunigung auszuführen. Aber die Quantenmechanik ist nicht wie ein NP-Universum – sie hat keine fork()-Anweisung mit einem Halt auf jeder Gabelung, die zu einem globalen Ergebnis führt. Es nimmt also einen seltsamen Zwischenplatz zwischen einer wirklich parallelen Universumsphysik und einer Wahrscheinlichkeitsrechnung ein.

Während es möglich ist, dass das Universum wirklich so ist, ist es wichtig, theoretisch nach Alternativen zu suchen, nur um zu lernen, wie groß der Raum der Möglichkeiten ist. Eine interessante Alternative müsste mindestens eine der beiden folgenden Einschränkungen beachten:

  • Es ist wirklich parallel: Sie können also NP-vollständige Probleme in polynomieller Zeit lösen
  • Es ist wirklich klassisch: Es scheißt, wenn es Shors Algorithmus macht.

Die Bohmsche Alternative ist rechnerisch sogar noch größer als die Quantenmechanik, sie enthält zusätzliche Daten, also ist sie aus rechnerischer Sicht nicht besser als QM. Also werde ich es ignorieren. Ich werde auch die erste Alternative ignorieren, weil sie auch größer als QM ist. Ich werde mich nur auf wirklich klassische Theorien konzentrieren, die dem Ganzen zugrunde liegen.

Bells Ungleichheit und holographische Nichtlokalität

Die Bell-Ungleichung tötete Theorien über lokale verborgene Variablen endgültig. Um dies zu sehen, werde ich den Satz von Bell schnell auf die intuitivste Art und Weise, die ich kenne, zusammenfassen: Wenn Sie drei Schüler A, B, C in einer Reihe haben, die einen Test machen, und sie betrügen, so dass sie ihren Nachbarn ansehen und kopieren Antworten, wenn Sie wissen, dass der Schüler in der Mitte, B, zu 99 % mit A und auch zu 99 % mit C korreliert, wissen Sie, dass A und C zu mindestens 98 % korrelieren, ohne noch etwas zu sagen. Der Grund dafür ist, dass bei 1000 Fragen im Test 10 Antworten zwischen B und A unterschiedlich sind und weitere 10 Fragen zwischen B und C unterschiedlich sind, also höchstens 20 Fragen zwischen A und C unterschiedlich sind. Das ist so intuitiv , ich hoffe es bedarf keiner ausführlichen Erklärung.

Bei lokalen Spinmessungen an antikorrelierten verschränkten Paaren wird die Glockenungleichung verletzt. Wenn Sie den Spin von zwei entfernten verschränkten Teilchen in einem Singulett entlang dreier Richtungen A, B, C messen, sind die Antworten für die beiden Teilchen immer miteinander antikorreliert. Die A-Antwort für ein Teilchen korreliert zu 99 % mit der B-Antwort für das andere, die B-Antwort korreliert zu 99 % mit der C-Antwort für das andere, aber die C-Antwort korreliert nur zu 96 % mit der A-Antwort für das andere. Das bedeutet, dass, wenn die Elektronen im Voraus Spickzettel erstellen würden, wenn sie in der Nähe wären, um zu sagen, welche Antwort sie für jede Messung geben würden, der Inhalt der Spickzettel für die drei Richtungen die Schüler A, B, C (unter Verwendung eines der beiden Partikel – die Spickzettel für jede Richtung werden immer genau gegenüber zwischen den beiden sein) und A, B, C hätte unmögliche Korrelationen. Es gibt also keine lokalen Spickzettel.

Der grundlegende Grund für die Verletzung ist, dass die Amplitude für die Nichtübereinstimmung verdoppelt wird, aber quadriert wird, um die Wahrscheinlichkeit zu erhalten, und die Form der Quadrierfunktion unten rund ist, und damit die Bellsche Ungleichung erfüllt wird, benötigen Sie eine Wahrscheinlichkeitsfunktion mit einer Ecke, wie die Absolutwertfunktion. Dies ist ein zentrales Merkmal der Quantenmechanik, das Runden, und genau das ist der Grund, warum es schwierig ist, die Quantenmechanik statistisch nachzubilden.

Der Satz von Bell legt also fest, dass es keine Spickzettel gibt, oder dass die Spickzettel nichtlokal modifiziert werden. Tötet dies versteckte Variablen?

Nicht wirklich, denn wir wissen jetzt, dass es Gravitationsholographie gibt – dass die grundlegende Beschreibung der Schwerkraft nicht lokal und weit entfernt ist. Dies erfordert, dass die korrekte Beschreibung von verschränkten Paaren nichtlokal auf einer entfernten Oberfläche verteilt ist, und es ist nun nicht undenkbar, dass man nichtlokale Korrelationen reproduzieren kann, nur weil sie verteilt ist.

Außerdem ist es auch nicht mehr undenkbar, dass man aus einer verteilten Beschreibung eines Quantenzustands Beschleunigungen quaderförmiger Art, wie in Grovers Suchalgorithmus, erhalten kann. Vielleicht sind die grundlegenden Variablen, die ein Quantensystem beschreiben, in einer großen Anzahl von Kopien auf dem kosmologischen Horizont verteilt, und wenn Sie den Grover-Algorithmus anwenden, suchen verschiedene Abschnitte des Horizonts, die Ihrem lokalisierten Quantencomputer entsprechen, an verschiedenen Stellen in der Datenbank Sie erhalten eine Quadratwurzel-Beschleunigung (zumindest für Systeme, die viel kleiner als die Größe des kosmologischen Horizonts sind). Unter solchen Modellen wäre der Paralleluniversum-Aspekt der Quantenmechanik im Umfang begrenzt – die Menge an paralleler Berechnung, die Sie in einer Überlagerung durchführen können, wäre durch die gesamte Rechengröße in Bits des kosmologischen Horizonts begrenzt.

Diese Sichtweise wurde von t'Hooft vorgeschlagen, unmittelbar nachdem er das Prinzip der Gravitationsholographie entdeckt hatte. Seine Modelle zum Ersetzen der Quantenmechanik waren vorläufig, und ich finde sie nicht besonders überzeugend, aber die Idee scheint zu sein, dass Nichtlokalität aufgrund von Holographie dieselbe Nichtlokalität sein könnte, die erforderlich wäre, damit verborgene Variablen Sinn ergeben.

Um unnötig pedantisch in Bezug auf die Quelle dieser Idee zu sein (ich möchte t'Hooft keine Worte in den Mund legen), habe ich dieses holografische Prinzip der verborgenen Variablen nicht explizit in t'Hoofts Schriften gefunden. Er zeichnete gerne eine große Horizontkugel mit Nullen und Einsen darauf, aber sein Schreiben über Bells Theorem und seine Theorien über verborgene Variablen war weniger klar. Aber ich glaube, dass dies die Motivation hinter seinen Versuchen mit versteckten Variablen ist. Ich traf ihn einmal auf einer Konferenz vor etwa 10 Jahren, und er sagte mir privat, dass er glaubt, dass ein Quantencomputer aufgrund nicht identifizierbarer Dekohärenzquellen bei einigen hundert Qubits ausfallen wird, nicht aus trivialen Gründen der Umweltkopplung – wegen des Versagens von Quantenmechanische Gründe. Diese Vorhersage legt nahe, dass er zumindest damals so dachte.

Statistische Reversibilität und Entenfüße

Das grundlegende Problem bei der Reproduktion der Quantenmechanik besteht darin, dass die Quantenevolution umkehrbar ist, während die stochastische Evolution zufällig und irreversibel ist. Diese Diskrepanz macht es sehr schwierig, sich auch nur eine stochastische oder klassische Substruktur unterhalb der Quantenmechanik vorzustellen.

Wie reversible Dinge in der Wahrscheinlichkeit trotzdem passieren können, möchte ich anhand eines anschaulichen Rätsels zur thermodynamischen Reversibilität zeigen:

Angenommen, ich habe zwei Eimer Wasser, einen mit 100 Grad, den anderen mit null Grad. Ich darf die Eimer willkürlich in kleine Volumina unterteilen, zwei beliebige Volumina beliebig berühren und die Wärme bis zum Gleichgewicht zwischen den beiden Volumina fließen lassen. Aber ich erinnere mich immer, welcher Behälter aus welchem ​​Eimer kam, und am Ende des Prozesses gieße ich das gesamte Wasser aus dem ersten Eimer zurück in den ersten Eimer und das gesamte Wasser aus dem zweiten Eimer zurück in den zweiten Eimer.

Der heiße Eimer ist also jetzt kälter und der kalte Eimer ist jetzt heißer. Was ist die maximale Wärmemenge, die ich nur mit Wärmestrom vom heißen Eimer zum kalten Eimer übertragen kann?

Es macht Spaß, dieses Problem zu lösen, und wenn Sie das tun möchten, lesen Sie nicht weiter.

Die Antwort ist, dass es unmöglich ist, die gesamte Wärmemenge vom heißen Eimer zum kalten Eimer zu übertragen. Eigentlich nein, das ist nicht die Antwort, aber ich machte mir Sorgen, dass jemand aus Versehen zu weit lesen könnte und ich das Problem ruinieren würde, was sehr viel Spaß macht. Die Antwort ist, dass es möglich ist, fast die gesamte Wärme vom heißen Eimer zum kalten Eimer zu übertragen, indem man einen Wärmetauscher baut.

Dies ist ein System aus kleinen Fingerhüten, deren Temperatur von 100 Grad bis 0 Grad in Schritten von (sagen wir) 1 Grad läuft. Sie haben also einen kleinen 99-Grad-Fingerhut, einen kleinen 98-Grad-Fingerhut usw. von jedem der heißen und kalten Eimer. Dann berühren Sie den n-Grad-Fingerhut aus dem kalten Eimer mit dem n+2-Grad-Fingerhut aus dem heißen Eimer, um zwei n+1-Grad-Fingerhüte zu machen.

Die heißen Fingerhüte bewegen sich in diesem Prozess um 1 Grad nach unten und die kalten Fingerhüte um 1 Grad nach oben, und Sie erhalten zwei sich entgegengesetzt bewegende Förderbänder, die damit enden, dass alle heißen Eimerfingerhüte 1 Grad erreichen, und die ganze Kälte -Eimer Fingerhüte bei 99 Grad. Indem Sie den Temperaturunterschied klein einstellen, verkleinern Sie den Abstand.

Die Lektion hier ist einfach: Wenn Sie einen reversiblen Wärmefluss erzeugen möchten, müssen Sie die Wärme zwischen Dingen fließen lassen, die nahezu genau die gleiche Temperatur haben.

Jetzt gebe ich ein oberflächlich anderes Rätsel auf:

Angenommen, ich habe zwei Räume mit gleichem Luftvolumen. In einem der Räume schwebt ein einzelnes Chloratom herum und diffundiert. Ich darf die Luft im Raum in kleine Volumina unterteilen (ohne auf Chlor zu testen) und die Volumina zusammen berühren, damit das Chlor zwischen den Volumina diffundieren kann (falls vorhanden). Am Ende bringe ich die Luft in jedem Volumen in den entsprechenden Raum zurück. Mit welcher maximalen Wahrscheinlichkeit kann ich das Chlor in den anderen Raum übertragen?

In dieser Formulierung ist die Antwort fast offensichtlich: Das Beste, was Sie tun können, ist, am Ende eine 50/50-Chance zu haben, das Chlor in einem der beiden Räume zu finden. Beachten Sie, dass, wenn Sie die Temperatur durch die "Wahrscheinlichkeit, das Chlor zu finden", dieses Problem vollständig mit dem vorherigen ersetzt, da sowohl Wärme als auch Wahrscheinlichkeit diffundieren. Die Wärmetauscherlösung für das vorige Problem überrascht also doppelt: Durch eine komplizierte Choreografie des Berührens von Luftfingern, die sich entlang von Förderbändern bewegen, können Sie das Chlormolekül mit nahezu sicherer Wahrscheinlichkeit zwischen den beiden Räumen übertragen! Dies verstößt gegen die Intuition: Bedenken Sie, dass Sie die meiste Zeit leere Fingerhüte aneinander berühren, nur um die (winzige) Wahrscheinlichkeit, das Chloratom in dem Fingerhut zu haben, ausreichend nahe an die (ebenfalls winzige) Wahrscheinlichkeit, das Chloratom in einem anderen Fingerhut zu haben, zu bringen, so dass sie sicher miteinander berührt werden können, ohne irreversibel zu wirken Entropiegewinn. Dieser komplizierte Tanz leerer Fingerhüte ist absolut notwendig, wenn Sie einen reversiblen Transfer wünschen.

Das war eine große Überraschung für mich, denn das ist reversible lineare Dynamik, die aus reiner Wahrscheinlichkeit entsteht. Wenn Sie den _exakt_gleichen_Prozess mit einer Chlorine irgendwo in einem Raum und einer Fluorine irgendwo im anderen Raum verwenden, werden sie mit ziemlicher Wahrscheinlichkeit die Positionen tauschen. Wenn Sie also diesen Vorgang wiederholen, pendelt das Chlor zwischen den beiden Räumen. Wahrscheinlichkeitssysteme sollen nicht so schwingen, das tun nur Quantensysteme.

Die Wahrscheinlichkeit, dass sich das Chlor in einem der beiden Räume befindet, entwickelt sich dann in einer reversiblen, komplex-eigenwertartigen Weise, obwohl die grundlegende Beschreibung vollständig probabilistisch und rein diffusiv ist (und je nach detailliertem Modell die tatsächliche Zeitdynamik nicht quantenhaft ist suchen). Die Schlüsselanforderung ist, dass, wenn ein Partikel von Region A nach Region B gelangen kann, die Wahrscheinlichkeit, dass das Partikel in Region A gefunden wird, immer nahezu gleich der Wahrscheinlichkeit sein muss, dass es in Region B gefunden wird (diese Anforderung wird auch durch t ausgedrückt 'Hooft, weshalb ich mich fragte, warum ich die Quantenmechanik von Entenfüßen in seinen Papieren nicht erkennen kann). Dies ist in einem holografischen Modell natürlich anzunehmen, wo alles, was Sie über das System wissen, grobe makroskopische Variablen sind, die die Werte lokaler Observablen für ein bestimmtes System sind.

Die Anforderung an eine klassische Theorie, die die Quantenmechanik darunter ersetzen kann, ist für mich also, dass es eine klassische Wahrscheinlichkeitstheorie sein sollte, die die Eigenschaft hat, dass ihre reine Wahrscheinlichkeitsdynamik auf großen Skalen näherungsweise durch eine reversible Hamiltonsche Quantendynamik beschrieben wird, weil die gesamte Diffusion findet zwischen kleinen Regionen statt, wo die Wahrscheinlichkeit, die Regionen zu besetzen, nahezu gleich ist. Ich glaube, dass eine solche Theorie in 60 Prozent der Fälle nicht existiert, ich glaube, dass sie in den anderen 40 Prozent der Fälle existiert.

Ich würde eine solche Theorie, falls sie existiert, Entenfuß-Quantenmechanik nennen. Entenfüße sind nahezu perfekte Wärmetauscher.

Das Papier

Das Papier widerlegt Interpretationen der Quantenmechanik, die von einem geheimen Zustand des Systems ausgehen λ , die sich von der Wellenfunktion unterscheidet und die Wellenfunktion nicht bestimmt. Dazu gehören alle Modelle der Entenfüße der Quantenmechanik und die Ideen von t'Hooft und fast alle anderen modernen Versuche, die Quantenmechanik zu ersetzen, weil die Wellenfunktion einfach zu verdammt groß ist, um in die Zustandsbeschreibung eines vernünftigen klassischen Unter-Darüber-Denkens aufgenommen zu werden -Alles Modell.

Der Satz besagt, dass wenn die Wellenfunktion nicht durch bestimmt ist λ , gibt es zwei verschiedene nicht-orthogonale Wellenfunktionen | + > und | 0 > , das Vorbereiten von beiden könnte zu demselben führen λ . Die Wellenfunktion kann nicht bestimmt werden durch λ in einem vernünftigen Modell. Sie wird bestimmt durch λ in der Bohmschen Mechanik (weil die Wellenfunktion Teil der Kraftbeschreibung zwischen den Teilchen ist), und deshalb taugt die Bohmsche Mechanik nicht als Ersatz für die Quantenmechanik – sie passt genauso wenig zur klassischen Berechnung, und so ist sie gerecht so grundsätzlich unverständlich wie die Quantenmechanik.

Die Arbeit geht dann davon aus, dass entfernte Systeme unabhängig sind, sodass zwei Systeme durch beschrieben werden λ und λ ' . Verwendung einer bestimmten verzerrten Wellenfunktionsbasis, Verwechslung | + > | 0 > und | + > | + > usw., sie zeigen, dass es Messungen gibt, die in der Quantenmechanik mit Sicherheit ein Ergebnis liefern, die unter Verwendung des verborgenen Zustands kein bestimmtes Ergebnis liefern können λ und λ ' .

Ich glaube, dass dies nur ein leicht informatives Ergebnis ist, weil der Zustand λ wird wie ein klassischer Zustand angenommen, so dass die Beschreibung eines Zwei-Teilchen-Systems durch unabhängige Variablen erfolgt. Es ist nicht klar, dass Sie diesen Satz nicht verletzen können, indem Sie korrelierte Wahrscheinlichkeitsverteilungen für die verborgenen Variablen der beiden scheinbar nicht zusammenhängenden Systeme haben und klassische Zustandsinformationen mit Informationen über die korrelierte Wahrscheinlichkeitsdichte identifizieren, sodass die Beschreibung der unabhängigen Systeme erfolgt nicht nur die beiden Beschreibungen beider Systeme zu verketten.

aber das Theorem schließt ein naives mentales Modell aus, bei dem jedes Elektron einen geheimen Spickzettel enthält, der Ihnen das Ergebnis aller Experimente mitteilt, so dass die Anzahl der Variablen auf den Spickzetteln nicht exponentiell mit der Anzahl der Elektronen wächst. Vielleicht ist dies eine Strohmannposition, aber ich habe einige unerfahrene Leute gesehen, die sie einnehmen.

Sehr hilfreicher und ausführlicher Beitrag. Sie sagen, es schließe Gerard 't Hoofts Ansatz und ähnliche Ansätze aus, aber ich verstehe nicht, warum?
@SchroedingersGhost: Es schließt sie nicht wirklich aus, obwohl es behauptet. Es schließt Ansätze aus, bei denen der verborgene variable Zustand eines isolierten Systems die Wellenfunktion nicht eindeutig bestimmt, plus die implizite Annahme, dass der klassische Zustand zweier isolierter Systeme, die voneinander isoliert sind, die Verkettung des Zustands eines jeden ist. Die zweite Annahme gilt nicht unbedingt für die Modelle von t'Hooft (offen gesagt verstehe ich seine Modelle nicht, obwohl ich glaube, die Motivation zu verstehen, also habe ich versucht, eine alternative Idee im gleichen Sinne zu geben).
Um zu sagen, warum es etwas ausschließt: Der Satz besagt, dass wenn Sie ein isoliertes System haben, das durch eine Wellenfunktion oder alternativ durch eine verborgene Variable beschrieben wird λ , und λ enthält weniger Informationen als die Wellenfunktion, sodass Sie die Wellenfunktion mit einer endlichen Chance ändern können, dass die λ unverändert bleibt, und ferner, wenn viele Kopien des Systems durch viele Kopien beschrieben werden λ , dann gibt es einen Widerspruch in den Tensorprodukten dieses isolierten Systems. Ein nicht-exponentiell wachsendes Hidden-Variable-Schema kann die Wellenfunktion nicht aus den Hidden-Variablen bestimmen.
Der Grund ist, dass die Wellenfunktionswerte für N Qubits benötigen 2 N Werte anzugeben, und die verborgenen Variablen für N Qubits in Schemata im T'Hooft-Stil erfordern im Allgemeinen etwas in der Art von H N Anzahl der anzugebenden Bits, wobei H die Größe des Horizonts in Planck-Einheiten ist, also wann 2 N wird größer als H N , Sie haben Pech gehabt, die Quantenmechanik zu reproduzieren. Darüber hinaus ist es unmöglich, dass eine so kleine Anzahl von versteckten Variablen die Wellenfunktion eindeutig fixieren kann, so viele verschiedene globale Wellenfunktionen müssen (global) dieselben versteckten Variablenkonfigurationen vornehmen.
Soweit ich das beurteilen kann, sind die Teilchen in Bohms Interpretation bezüglich der Wellenfunktion epiphänomenal. Als solches kann ich es nicht als etwas anderes als das MWI mit einem Zweig sehen, der willkürlich als der echte deklariert wurde.
@wnoise: Das Wunder von Bohm ist, dass es eine Möglichkeit gibt, einen Zweig auf konsistente Weise als real zu deklarieren. Dies ist nicht trivial - wenn Sie Wellenfunktionszweige ohne Bohmsche Teilchen beschneiden, erhalten Sie andere Vorhersagen als QM. Die Bohmschen Partikel führen das Beschneiden durch einen komplizierten Tanz aus, indem sie nahegelegene Alternativen ausspionieren und sich mit der richtigen Wahrscheinlichkeit in Zweige wackeln, die statistisch gesehen lebendig sind, was äußerst interessant ist, weil die Leute es lange Zeit für unmöglich hielten, bis Bohm es tat.
@wnoise: Ich muss auch hinzufügen, dass die Partikel manchmal aus einem Zweig, der gerade aus dem Leben gerissen wird, in einen anderen, weit entfernten Zweig schlüpfen. So kann Bohm die exponentielle Beschleunigung reproduzieren – da die Wellenfunktionsinterferenz exponentielle Dinge tut, gehen die Teilchen manchmal für lange Zeit in einen Zweig, bis sie zu verschwinden beginnen, und finden sich dann in einem anderen Zweig wieder. Es ist wirklich seltsam und nichtlokal im Konfigurationsraum, obwohl sich die Partikel natürlich immer lokal bewegen. Dazu gab es in den letzten Jahren Simulationen.
Ron Maimon, könnten Sie ein wenig näher darauf eingehen: "Wenn Sie die Wellenfunktionszweige ohne Bohmsche Teilchen beschneiden, erhalten Sie andere Vorhersagen als qm"?
@SchroedingersGhost: Ich erinnere mich jetzt, wovon du sprichst. Das Beschneiden der Wellenfunktion bedeutet, dass ein Zweig ausgewählt wird, um ihn als "echt" zu bezeichnen, und die anderen Zweige verschwinden. Grundsätzlich kann man immer eine kohärente Interferenz zwischen überlagerten Alternativen erhalten. Bei Bohm erfolgt die Beschneidung durch den Zweig, an dem die Partikel gerade schnüffeln, und diese Beschneidung ist konsistent, da bei einer Interferenz, sogar einer groben mesoskopischen Interferenz, alle Partikel neu angeordnet werden, um sich auf einer anderen nicht verschwindenden Flugbahn zu befinden auf seltsam aussehende Weise aufgrund der Quantenkraft.
Wenn also beispielsweise der Algorithmus von Shor ausgeführt wird, ist das Endergebnis, dass die Qubits in Überlagerungen über den Vielfachen des Faktors liegen. Die Bohm-Wellenfunktion in Zwischenstufen läuft über alle Überlagerungen, einschließlich Nichtfaktoren. Wenn der Faktorisierungsalgorithmus endet, kanalisieren die Bohmschen Teilchen nur noch Faktoren, und dies sieht aus wie ein seltsames akausales Phänomen, weil es viele nicht realisierte Zweige beinhaltet, die hereinkommen und die Nicht-Faktor-Zweige aus ihrer Existenz stören. Die Teilchen können ohne Widersprüche mit Interferenzeffekten einen echten Zweig auswählen, und das ist schwierig.
Danke vielmals. Offensichtlich ist dies auch der Grund, warum Bohmianer sagen, dass sie die geborene Regel ableiten, anstatt sie zu postulieren. Was denkst du über MWI vs. Bohm? Wie vermeiden Sie auch, dass die "leeren Zweige" Welten entstehen lassen (Funktionalismus)?
@SchroedingersGhost: Ist Born eine ernsthafte Alternative? Ich hielt es immer eher für ein Gegenbeispiel zu einer angeblichen No-Hidden-Variables-Behauptung als für eine ernsthafte Theorie. Die Born-Theorie hat Teilchen mit einer bestimmten Position, und die Position ist nur eine von vielen Basen. Warum kann ich in der Impulsdarstellung nicht Bornify? Wenn Sie eine gegebene Quantenfeldtheorie in verschiedenen Feldbasen bornifizieren, bin ich sicher, dass es eine Bazillion verschiedener Born-Theorien gibt. Geboren für mich ist nur ein Beweis des Prinzips. Aber es leitet die Wahrscheinlichkeitsinterpretation ab, sicher.
Was meinst du mit seriöser Alternative? Ich meine die Born Rule (allgemein gültig, unabhängig von Interpretationen), die uns die Wahrscheinlichkeiten in QM liefert. Meinten Sie Böhm?
@Schrodinger'sGhost: Hoppla, lies "Bohm" für "Born" überall im Kommentar oben.
Aha! :) Könnten Sie diesen Satz ein wenig näher erläutern: "Wenn Sie Wellenfunktionszweige ohne Bohmsche Teilchen beschneiden, erhalten Sie andere Vorhersagen als QM." ?

Das Papier geht nicht im Detail darauf ein, welche Interpretationen durch ihre Ergebnisse widerlegt würden. Das hat einen guten Grund: Es gibt keine Interpretationen, die durch ihre Ergebnisse widerlegt würden. Sie widerlegen einen Strohmann. Hier ist das zentrale Ergebnis, das durch das Papier bewiesen wird, weniger obskur formuliert:

„Wenn sich ein System im reinen Zustand befindet | + Z dann ist es definitiv nicht in einem anderen reinen Zustand | + X oder Wasauchimmer."

Wenn dies offensichtlich und unumstritten erscheint, ist es das! Zugegeben, im Abschnitt mit den Schlussfolgerungen behaupten sie, dass sie Dinge sagen, die nicht offensichtlich sind … aber sie sind falsch.

Fangen wir von vorne an. Sie definieren die Debatte, indem sie sagen, dass es zwei reine Quantenzustände gibt, | ϕ 0 und | ϕ 1 . Es gibt ein Verfahren zur Vorbereitung | ϕ 0 und ein anderes Verfahren zur Vorbereitung | ϕ 1 . Sie sagen, es gibt zwei Denkschulen. Die erste Denkschule (die richtige) ist, dass "der Quantenzustand eine physikalische Eigenschaft des Systems ist", so dass "der Quantenzustand eindeutig durch [die physikalische Situation] bestimmt wird". Das ist diejenige, die sie beweisen werden, ist richtig. Sie sagen, die Alternative (die falsche) sei, dass "der Quantenzustand statistischer Natur ist", womit sie meinen, "eine vollständige Spezifikation [der physikalischen Situation] muss den Quantenzustand nicht eindeutig bestimmen".

Nehmen wir an, Sie haben ein Spin-1/2-System im Zustand | + Z . Dann ... WARTEN SIE EINE MINUTE! Ich habe mich gerade der ersten Denkschule verschrieben! Ich sagte, das System sei wirklich in einem bestimmten Quantenzustand!

Tatsächlich ist jeder, der sich mit Quantenmechanik beschäftigt, immer in der ersten Denkschule, weil wir sagen, dass ein System einen Quantenzustand hat, und wir berechnen, wie sich der Zustand entwickelt usw., wenn sich das System in einem reinen Zustand befindet. (Nicht unbedingt zutreffend für gemischte Zustände, wie unten diskutiert.)

Was wäre die zweite Denkrichtung? Sie würden sagen: „Ich habe eine Prozedur durchlaufen, die das System angeblich auf den reinen Zustand vorbereitet | + Z . Aber das System hat wirklich nicht nur einen einzigen Zustand. Irgendwie ist damit eine gewisse Wahrscheinlichkeit verbunden. Genau dieses Verfahren könnte den Staat gut vorbereitet haben | + X oder Wasauchimmer.

Echte Physiker haben einen Weg, mit dieser Möglichkeit umzugehen: Gemischte Zustände und der Dichtematrix-Formalismus. Wenn Sie versuchen, einen reinen Zustand vorzubereiten, aber keine sehr gute Arbeit leisten, dann erhalten Sie einen gemischten Zustand, zum Beispiel den gemischten Zustand, der mit einer Wahrscheinlichkeit von 70 % vorliegt | + Z und eine Wahrscheinlichkeit von 30 % | + X .

Also wieder, wie ich eingangs sagte, haben sie die offensichtliche Tatsache bewiesen: "Wenn sich ein System im reinen Zustand befindet | + Z dann ist es definitiv nicht in einem anderen reinen Zustand | + X oder Wasauchimmer."

Wie wollen sie mit einer so offensichtlichen und unumstrittenen Prämisse etwas schließen, das nicht völlig offensichtlich ist? Gehen wir zum Abschnitt Schlussfolgerungen. Sie kommen zu dem Schluss, dass „der Quantenprozess des sofortigen Zusammenbruchs der Wellenfunktion sich [von] dem (völlig nicht mysteriösen) klassischen Verfahren der Aktualisierung einer Wahrscheinlichkeitsverteilung, wenn neue Informationen erfasst werden, unterscheidet“. Allerdings, wenn ein Spin im Stand ist | + Z , dann wird der Erwerb neuer Informationen diese niemals in den Zustand versetzen | + X . Sie müssen tatsächlich etwas am System tun, um einen Spin zu ändern | + Z zu | + X !! Sie könnten es beispielsweise messen, ein Magnetfeld anlegen usw.

Nehmen wir ein interessanteres Beispiel, ein EPR-Paar im Staat ( | + + + | ) / 2 . Nach der Vorbereitung des Zustands befindet es sich wirklich in diesem spezifischen Quantenzustand. Wenn wir es vorsichtig manipulieren, während es isoliert ist, können wir es kohärent in andere Zustände ändern usw. Jetzt trennen wir das Paar. Jemand, der den ersten Spin möglichst vollständig beschreiben möchte, aber keinen Zugriff auf den zweiten Spin hat, würde wie üblich eine Teilspur nehmen, um eine Dichtematrix zu erhalten. Er erhält dann eine E-Mail, dass der zweite Spin im Zustand + ist. Er modifiziert seine Dichtematrix in den reinen Zustand +. Sie werden feststellen, dass ihr Beispiel nicht zeigt, dass dieser sogenannte Kollaps irgendwelche Gesetze der Quantenmechanik verletzt. Ihre Widerlegung ist spezifisch für reine Zustände und würde in diesem Beispiel für gemischte Zustände nicht funktionieren. Daher können sie im EPR-Fall nicht schlussfolgern, dass „der Quantenkollaps einem realen physikalischen Prozess entsprechen muss“.

Noch ein Beispiel: Ein Spin-in-State | + Z , und Sie messen es in X-Richtung. Die Schrödinger-Gleichung, interpretiert mit der Dekohärenztheorie, besagt, dass sich die Wellenfunktion des Universums kohärent zu einer Überlagerung von (makroskopische Messung von +) und (makroskopische Messung von -) entwickeln wird. In dem Papier sagen sie das anders: „Jede makroskopisch unterschiedliche Komponente hat ein direktes Gegenstück in der Realität“. Das sagt nur das Gleiche aus, klingt aber tiefer. Ich hoffe, dass jeder, der die Dekohärenztheorie versteht, zustimmen wird, dass beide makroskopischen Messungen Teil der Wellenfunktion des Universums sind und dass das Universum wirklich eine sich einheitlich entwickelnde Wellenfunktion hat, auch wenn wir das meiste davon nicht sehen können. Wir kümmern uns jedoch selten um die Wellenfunktion des Universums;

-- AKTUALISIEREN --

Ich habe versucht, die Zeitung auf die wohltätigste Art und Weise, die ich kann, noch einmal zu lesen. Nun, ich glaube, ich war ein bisschen zu hart oben. Hier ist, was das Papier beweist:

ZENTRALE BEHAUPTUNG: Angenommen, Sie haben eine Theorie der verborgenen Variablen, also wenn Sie „einen reinen Zustand vorbereiten | ψ „Sie bereiten eigentlich den Staat vor { | ψ , EIN } , wobei A die verborgene Variable ist, die jedes Mal, wenn Sie den Zustand vorbereiten, zufällig variiert. Es ist unmöglich zu haben { | ψ 0 , EIN } = { | ψ 1 , EIN ' } , wenn | ψ 0 | ψ 1 . Mit anderen Worten, die Hidden-Variable-Ensembles verschiedener reiner Zustände überlappen sich nicht.

Sie widerlegen einen Strohmann, weil es keine Interpretation der Quantenmechanik gibt, die behauptet, dass die Ensembles verborgener Variablen verschiedener reiner Zustände einander überlappen müssen. Selbst Hidden-Variable-Theorien behaupten dies nicht. In der Literatur gibt es eine sogenannte „statistische Interpretation“ (vertreten von L. Ballentine), die dies ebenfalls nicht behauptet.

Das ist also ein Strohmann, weil niemand jemals argumentiert hat, dass Ensembles verborgener Variablen verschiedener Zustände sich überlappen sollten. Aber es ist kein offensichtlich lächerlicher Strohmann. Zumindest kann ich mir keinen viel einfacheren Weg vorstellen, um diese Behauptung zu beweisen. (Zugegeben, ich verschwende meine Zeit nicht damit, über Theorien verborgener Variablen nachzudenken.) Ich kann mir vorstellen, dass jemand, der eine neue Quantentheorie nichtlokaler verborgener Variablen konstruiert, gerne wissen möchte, dass sich die Ensembles verborgener Variablen nicht überlappen sollten.

Ich denke, das ist nützlich, +1, aber ich denke auch, dass Ihre Charakterisierung dessen, was es bedeutet, dass "ein EPR-Paar" "in einem Zustand" ist, konkreter ist als das Experiment rechtfertigt - ein Experiment kann nur bestätigen, dass ein Ensemble von Messungen ist statistisch konsistent mit einer Wahrscheinlichkeitsverteilung, die aus der gemeinsamen Hypothese abgeleitet wird, dass sich "ein Ensemble von EPR-Paaren" in einem gegebenen Zustand befindet und dass die Messung eine getreue experimentelle Realisierung eines gegebenen Messoperators ist. Das arXiv-Papier, auf das verwiesen wird, ist meiner Meinung nach zu unklar geschrieben, um sicher zu sein, worauf sie hinaus wollen.
Ich denke, Sie sind etwas extrem in Bezug auf die statistische Interpretation. Es ist eine gültige philosophische Position.
@MBN: Ich habe gerade Ballentines Rezension zur "statistischen Interpretation" gelesen. Sie definiert es als: "ein reiner Zustand ... muss keine vollständige Beschreibung eines individuellen Systems liefern". (Zum Beispiel kann es auch versteckte Variablen geben.) Das neue Papier versucht, die Behauptung zu widerlegen: "Eine vollständige Beschreibung eines individuellen Systems kann mit vielen verschiedenen reinen Zuständen gleichzeitig konsistent sein". Nicht das gleiche! Jedes gegebene individuelle System wurde durch eine bestimmte Zubereitungsmethode hergestellt, und jede Zubereitungsmethode ist nach Ballentine mit NUR EINEM Ket verbunden.
@Peter Morgan - Wenn Sie möchten, wenn ich "... im Zustand ..." sage, können Sie diese Wörter im Geiste ersetzen durch "... vorbereitet über ein Verfahren, das bei Wiederholung ein Ensemble im erzeugen würde Zustand...". Schließlich können Sie dies als Ihre persönliche Definition des Ausdrucks „im Staat“ verinnerlichen. Das wird Ihnen das Leben erleichtern und Ihre Kommunikation mit anderen Physikern verbessern. :-P
@Steve B Ich bin froh, dass Sie in beide Richtungen gehen können. Manchmal kann es hilfreich sein, stärker operativ zu denken, obwohl die entstandenen Abkürzungen sicherlich nützlich sind. Im vorliegenden Fall scheinen alle Verwirrungen über das Verhältnis zwischen Betriebsbeschreibungen und Kurzschriften zu bestehen. „Sind Staaten real“ ist zum Beispiel keine Frage für eine operative Interpretation, sondern eher eine Frage, wenn man realistisch über die Zeichen nachdenkt, die die Abkürzungen einführen. Dann ist es, wie Ihre Antwort sagt, eher ein Strohmann.
@Steve, in deiner Antwort bestreitest du den Standpunkt der statistischen Interpretation. Ich sage nur, dass es ein gültiger Standpunkt ist.
@MBN - Ungeachtet meiner persönlichen Gefühle ist mein Hauptpunkt, dass das neue Papier die statistische Interpretation NICHT widerlegt (zumindest wie von Ballentine beschrieben). Die statistische Interpretation impliziert oder erfordert NICHT, dass ein einzelnes System gleichzeitig mit vielen verschiedenen reinen Zuständen konsistent sein kann. (Das ist der Strohmann, den das Papier widerlegt.) Bei der statistischen Interpretation können Sie sich immer noch ansehen, wie das einzelne System vorbereitet wurde, und diese Vorbereitungsmethode ist mit NUR EINEM Ket verbunden, das das Verhalten des Systems korrekt (wenn auch statistisch) vorhersagt.

IMHO übersieht das PRB-Papier die Tatsache, dass Wahrscheinlichkeiten von dekohärenter Grobkörnung herrühren. Auf der feinkörnigen Ebene ist ein reiner Zustand ein reiner Zustand. Für alle praktischen Zwecke kann jedoch keine vollständige, feinkörnige Beschreibung eines Systems erstellt werden, das nicht einfach wie ein Molekül ist. Was durch Grobkörnung bewirkt, ist, einen reinen Zustand in einen gemischten Zustand umzuwandeln, und dann gilt ihr Theorem nicht. Auch bei der Beobachtung eines einfachen Systems wie eines Moleküls muss der Messapparat grobkörnig beschrieben werden, und so kommen die Wahrscheinlichkeiten auf der Ebene des Messapparats ins Spiel.

Ihr Theorem richtet sich nicht auf die Quantenmechanik, sondern auf Ideen mit versteckten Variablen – es soll feststellen, dass die Wellenfunktionsinformationen nicht auf unabhängige klassische Daten reduzierbar sind, die die Eigenschaft haben, dass Daten (A Tensor B) = Daten (A) U data(B) für unabhängige Systeme. Sie übersehen die Grobkörnigkeit nicht wirklich, es ist für ihre Zwecke nur irrelevant.

Eine Angabe des Bundeslandes ist nicht möglich λ eines Systems, ohne es von außen zu messen, indem man dynamisch mit ihm interagiert und es verändert und mit ihm verschränkt. Den Zustand zu spezifizieren heißt, ihn so zu verändern, dass er nicht mehr derselbe ist wie zuvor.

Wie auch immer, PBR geht davon aus, dass wir in der Praxis ein System auf jeder von uns gewählten orthonormalen Basis messen können, egal wie kompliziert. Das mag im Prinzip stimmen, aber nicht in der Praxis. Die Dekohärenz hat eine Theorie der Einselektion in sogenannte Zeigerbasen. Einige Basen sind natürlicher als andere, da natürliche Basen leichter zu messen sind, und einige Basen sind praktisch unmöglich zu messen.

Ihr Punkt ist, dass es nicht möglich ist, den Zustand eines Systems zu spezifizieren λ überhaupt, auch logisch gesprochen, nicht um Experimente zu seiner Bestimmung, wenn folgende Postulate gelten: 1. Der verborgene Zustand bestimmt nicht die Wellenfunktion. 2. Unabhängige Systeme haben einen verborgenen Zustand, der die Verkettung der Zustandsdaten für die zwei Systeme ist. Die zweite Annahme ist implizit, daher ist ihre Schlussfolgerung, dass alle versteckten Daten mindestens groß genug sind, um die Wellenfunktion eindeutig zu bestimmen (was viel größer ist, als moderne Ideen für versteckte Variablen zulassen würden).

Ich glaube wirklich nicht, dass dieses Theorem so bahnbrechend ist, wie es behauptet wird. Der Hauptbeweis ihres Artikels gilt für ein Qubit, das in einem bestimmten reinen Zustand hergestellt wurde. Für realistische interessierende Systeme haben wir typischerweise viele interne Freiheitsgrade und die Dimensionalität des Hilbert-Raums ist riesig. Lassen wir die Schwierigkeit beiseite, ein System mit vielen internen dof in einem bestimmten reinen Zustand im Gegensatz zu einem gemischten Zustand vorzubereiten. Wenn es so viele interne DOF gibt, erfordert die Konstruktion der Autoren, dass derselbe reine Zustand sehr oft vorbereitet wird. Für Systeme beliebiger Größe wird sich die Anzahl der vorbereiteten Klone als unpraktisch erweisen. Ich meine, sogar in der klassischen Wahrscheinlichkeitstheorie, wenn zwei Wissenschaftler irgendeiner experimentellen Vorbereitung unterschiedliche Wahrscheinlichkeitsverteilungen zuordnen,

Die Autoren schleichen sich wirklich durch die Hintertür in ein Ensemble ein, und Ensembles haben statistische Interpretationen.

Das ist nicht wahr. Wir können Atome und Photonen mit moderner Ausrüstung, die effektiv zwei Zustände sind, mit hoher Genauigkeit präparieren. Dies könnte beispielsweise ein Test sein, der mit einzelnen Rubidium-Rydberg-Atomen oder mit Photonen durchgeführt wird. Tatsächlich sehe ich, dass dieser Test von den Photonikern extrem schnell durchgeführt wird. Sie sind sehr agil.
@Mark: Natürlich haben Sie Recht, aber der Punkt, auf den Peter Moulin hinweist, könnte sein, dass das Gedankenexperiment genau dann undurchführbar wird, wenn die Beschreibung der Wellenfunktion so groß ist, dass man erwarten könnte, dass eine kohärente Beschreibung der Wellenfunktion aus grundlegenden Gründen fehlschlägt. Wer erwartet, dass die Quantenmechanik versagt, erwartet Versagen nur bei kohärenten Überlagerungen einer großen Anzahl von Ellen.