Deterministische Modelle. Klärung der Frage:
Das Problem bei diesen Blogs ist, dass die Leute dazu neigen, sich gegenseitig anzuschreien. (Ich gebe zu, ich habe mich angesteckt und es ist schwierig, die elektronische Stimme nicht zu erheben.) Ich möchte meine Frage ohne polemische Gefolgschaft stellen.
Meine jüngsten Arbeiten wurden mit Skepsis aufgenommen. Ich habe kein Problem damit. Was mich stört, ist die allgemeine Reaktion, dass sie "falsch" sind. Meine Frage ist wie folgt zusammengefasst:
Hat einer dieser Leute die Arbeit tatsächlich gelesen und kann mir jemand sagen, wo ein Fehler gemacht wurde?
Nun die Einzelheiten. Ich kann nicht anders, als angewidert zu sein von der „Viele-Welt“-Interpretation oder den Bohm-de-Broglie-„Pilotwellen“, und selbst die Vorstellung, dass die Quantenwelt nicht lokal sein muss, ist schwer zu kaufen. Ich möchte wissen, was wirklich los ist, und um zu versuchen, Ideen zu bekommen, baue ich einige Modelle mit unterschiedlichem Anspruch. Diese Modelle sind natürlich "falsch" in dem Sinne, dass sie nicht die reale Welt beschreiben, sie erzeugen nicht das Standardmodell, aber man kann sich vorstellen, von solch einfachen Modellen auszugehen und immer kompliziertere Details hinzuzufügen, um sie realistischer aussehen zu lassen , in verschiedenen Stadien.
Natürlich weiß ich, was die Schwierigkeiten sind, wenn man versucht, QM mit Determinismus zu untermauern. Einfache probabilistische Theorien versagen auf wesentliche Weise. Eine oder mehrere der üblichen Annahmen, die in einer solchen deterministischen Theorie gemacht werden, müssen wahrscheinlich aufgegeben werden; Das ist mir vollkommen bewusst. Andererseits scheint unsere Welt äußerst logisch und natürlich zu sein.
Deshalb beschloss ich, meine Untersuchung am anderen Ende zu beginnen. Annahmen treffen, die später sicherlich geändert werden müssen; Erstellen Sie einige einfache Modelle, vergleichen Sie diese mit dem, was wir über die reale Welt wissen, und ändern Sie dann die Annahmen nach Belieben.
Die No-Go-Theoreme sagen uns, dass ein einfaches zelluläres Automatenmodell wahrscheinlich nicht funktioniert. Eine Art, wie ich versuchte, sie zu "ändern", bestand darin, Informationsverlust einzuführen. Auf den ersten Blick würde mich das noch weiter von QM wegbringen, aber wenn Sie etwas genauer hinschauen, stellen Sie fest, dass man immer noch einen Hilbert-Raum einführen kann, aber er wird viel kleiner und er kann holographisch werden, was wir tatsächlich tun können wollen. Wenn Sie dann erkennen, dass Informationsverlust jede Abbildung vom deterministischen Modell auf QM-Zustände grundsätzlich nicht lokal macht – während die Physik selbst lokal bleibt – dann wird die Idee vielleicht attraktiver.
Das Problem dabei ist nun, dass man wiederum zu große Annahmen macht und die Mathematik ziemlich kompliziert und unattraktiv ist. Also ging ich zurück zu einem reversiblen, lokalen, deterministischen Automaten und fragte: Inwieweit ähnelt dieser QM, und wo läuft er falsch? Mit der Idee im Hinterkopf, dass wir die Annahmen ändern, vielleicht Informationsverluste hinzufügen, ein expandierendes Universum einfügen, aber all das kommt später; zuerst möchte ich wissen, was schief geht.
Und hier ist die Überraschung: Es geht gewissermaßen nichts schief. Sie müssen nur davon ausgehen, dass wir Quantenzustände verwenden, auch wenn die Evolutionsgesetze selbst deterministisch sind. Die Wahrscheinlichkeitsverteilungen sind also durch Quantenamplituden gegeben. Der Punkt ist, dass es bei der Beschreibung der Abbildung zwischen dem deterministischen System und dem Quantensystem viel Freiheit gibt. Wenn Sie einen beliebigen periodischen Modus des deterministischen Systems betrachten, können Sie für alle Zustände in diesem Modus einen gemeinsamen Beitrag zur Energie definieren, und dies führt eine große Anzahl willkürlicher Konstanten ein, sodass uns viel Freiheit gegeben wird.
Wenn ich diese Freiheit nutze, habe ich am Ende eine ganze Reihe von Modellen, die ich zufällig interessant finde. Beginnend mit deterministischen Systemen lande ich bei Quantensystemen. Ich meine echte Quantensysteme, nicht irgendeines dieser hässlichen Gebräue. Auf der anderen Seite sind sie noch weit entfernt vom Standardmodell oder auch nur von allem anderen, das anständige, interagierende Teilchen zeigt.
Außer Stringtheorie. Ist das von mir konstruierte Modell ein Gegenbeispiel, das zeigt, dass das, was mir alle über die Unvereinbarkeit von fundamentaler QM mit Determinismus sagen, falsch ist? Nein, das glaube ich nicht. Die Idee war, dass ich meine Annahmen irgendwann ändern muss, aber vielleicht müssen auch die üblichen Annahmen in den No-Go-Theoremen betrachtet werden.
Ich persönlich denke, dass die Leute den „ Superdeterminismus “ zu schnell ablehnen. Ich lehne "Verschwörung" ab, aber das ist vielleicht nicht dasselbe. Der Superdeterminismus besagt einfach, dass Sie Ihre Meinung (darüber, welche Komponente eines Spins gemessen werden soll) nicht durch „freien Willen“ „ändern“ können, ohne auch eine Modifikation der deterministischen Modi Ihrer Welt in der fernen Vergangenheit zu haben. In einer deterministischen Welt ist dies offensichtlich wahr, und vielleicht ist dies eine wesentliche Tatsache, die berücksichtigt werden muss. Es impliziert keine "Verschwörung".
Hat jemand eine gute oder bessere Idee zu diesem Ansatz, ohne Namensnennung? Warum sind einige von Ihnen so stark eigensinnig, dass es „falsch“ ist? Trete ich auf die religiösen Gefühle von jemandem? Ich hoffe nicht.
Verweise:
"Die Quantenmechanik diskreter Systeme mit der kanonischen Standard-Quantenmechanik in Beziehung setzen", arXiv: 1204.4926 [quant-ph];
„Dualität zwischen einem deterministischen zellulären Automaten und einer bosonischen Quantenfeldtheorie in Dimensionen", arXiv:1205.4107 [quant-ph];
„Diskretion und Determinismus in Superstrings“, arXiv:1207.3612 [hep-th].
Weitere Reaktionen auf die gegebenen Antworten. (Das Schreiben als "Kommentar" schlug fehl, das Schreiben als "Antwort" führte dann zu Einwänden. Ich werde versuchen, die "Antwort" zu löschen, die ich nicht hätte einfügen sollen ...)
Erstmal: Danke für die ausführlichen Antworten.
Mir ist klar, dass meine Frage philosophische Fragen aufwirft; diese sind interessant und wichtig, aber nicht mein Hauptanliegen. Ich möchte wissen, warum ich beim Bau meines Modells kein technisches Problem finde. Ich fühle mich geschmeichelt von dem Eindruck, dass meine Theorien so „einfach“ zu konstruieren waren. Tatsächlich habe ich meine Präsentation so transparent wie möglich gestaltet, aber es war nicht einfach. Es gibt viele Sackgassen und nicht alle Modelle funktionieren gleich gut. So lässt sich beispielsweise der harmonische Oszillator auf einen einfachen periodischen Automaten abbilden, doch dann stößt man auf technische Feinheiten: Der Hamiltonian eines periodischen Systems scheint nach oben und unten unbegrenzt zu sein, während der harmonische Oszillator einen Grundzustand hat. Der zeitumkehrbare zelluläre Automat (CA), der aus zwei Schritten besteht und , wo beides und als Exponent physikalisch vernünftiger Hamiltonoperatoren geschrieben werden kann, ist selbst viel schwieriger als Hamiltontheorie auszudrücken, da die BCH-Reihe nicht konvergiert. Auch explizit dimensionale QFT-Modelle widersetzten sich meinen Versuchen, sie als zellulare Automaten umzuschreiben. Deshalb war ich überrascht, dass die Supersaite anscheinend so gut funktioniert, aber selbst hier mussten einige Tricks erfunden werden, um dies zu erreichen.
@RonMaimon. Ich wiederhole hier, was ich in einem Kommentar gesagt habe, nur weil dort die 600-Zeichen-Grenze meinen Text zu sehr verzerrt hat. Sie haben das Problem in früheren Beiträgen gut dargestellt: In einem CA kann die "ontische" Wellenfunktion des Universums nur in bestimmten Moden des CA sein. Das bedeutet, dass das Universum nur in Zuständen sein kann die das Eigentum haben , während die Quantenwelt, die wir beschreiben möchten, viel mehr Zustände zulässt, die gar nicht orthonormal zueinander sind. Wie konnten diese Zustände jemals entstehen? Ich fasse zusammen, mit Entschuldigung für die Wiederholung:
Ich glaube nicht, dass wir von einer unzählbaren Anzahl von Staaten sprechen müssen, aber die Anzahl der CA-Staaten ist extrem groß. Kurz gesagt: Das mathematische System lässt uns die Wahl: Nimm alle CA-Zustände, dann ist die orthonormale Menge groß genug, um alle möglichen Universen zu beschreiben, oder wähle die viel kleinere Menge der SM-Zustände, dann brauchst du auch viele überlagerte Zustände, um das Universum zu beschreiben . Der Übergang von einer Beschreibung zur anderen ist im mathematischen Sinne natürlich und fließend.
Ich vermute, dass man auf diese Weise sehen kann, wie eine nicht quantenmechanische Beschreibung auf CA-Ebene (die nur "klassische" Wahrscheinlichkeiten zulässt) uns "allmählich" dazu zwingen kann, Quantenamplituden zu akzeptieren, wenn wir uns größeren Entfernungsskalen zuwenden, und zu begrenzen uns selbst nur auf viel niedrigere Energieniveaus. Sie sehen, in Worten mag das alles krumm und vage klingen, aber in meinen Modellen denke ich, dass ich gezwungen bin, so zu denken, einfach durch das Betrachten der Ausdrücke: In Bezug auf die SM-Zustände könnte ich mich leicht entscheiden, alle zu akzeptieren Quantenamplituden, aber wenn ich mich der CA-Basis zuwende, entdecke ich, dass Überlagerungen überflüssig sind; sie können durch klassische Wahrscheinlichkeiten ersetzt werden, ohne etwas an der Physik zu ändern, weil in der CA die Phasenfaktoren in den Überlagerungen niemals beobachtbar werden.
@Ron Ich verstehe, dass Sie etwas anderes versuchen. Mir ist nicht klar, ob Sie dolmetschen wollen als Wellenfunktion. (Ich mache mir keine Sorgen über das Fehlen von , solange das Minuszeichen erlaubt ist.) Meine Theorie ist viel direkter; Ich verwende die ursprüngliche "Quanten"-Beschreibung nur mit konventionellen Wellenfunktionen und konventionellen Wahrscheinlichkeiten.
(Neu seit Sonntag, 20. August 2012)
Es gibt ein Problem mit meiner Argumentation. (Ich korrigiere einige Aussagen, die ich hier früher gemacht hatte). Ich muss mit zwei Arten von Zuständen arbeiten: 1: die Schablonenzustände, die überall dort verwendet werden, wo man Quantenmechanik betreibt, diese erlauben jede Art von Überlagerung; und 2: die ontischen Zustände, die Menge von Zuständen, die die Grundlage der CA bilden. Die ontischen Zustände sind alle orthonormal: , daher sind für sie keine Überlagerungen zulässig (es sei denn, Sie möchten natürlich einen Vorlagenzustand konstruieren). Man kann dann die Frage stellen: Wie kann es sein, dass wir (meinen) in Experimenten überlagerte Zustände sehen? Sehen Experimente nicht nur ontische Zustände?
Meine Antwort war immer: Wen interessiert dieses Problem? Wenden Sie einfach die Regeln des QM an. Verwenden Sie die Vorlagen, um beliebige Berechnungen durchzuführen und Ihren Zustand zu berechnen , und beachten Sie dann, dass die CA-Wahrscheinlichkeiten , entwickeln sich genau so, wie es Wahrscheinlichkeiten tun sollen.
Das funktioniert, aber es lässt die Frage unbeantwortet, und aus irgendeinem Grund regen sich meine Freunde auf dieser Diskussionsseite darüber auf.
Also fing ich an, darüber nachzudenken. Ich kam zu dem Schluss, dass die Template-Zustände zur Beschreibung der ontischen Zustände verwendet werden können, aber das bedeutet, dass sie irgendwo entlang der Linie auf eine orthonormale Menge reduziert werden müssen. Wie kommt es dazu? Wie kann es insbesondere sein, dass Experimente stark darauf hindeuten, dass Überlagerungen eine äußerst wichtige Rolle spielen, während diese meiner Theorie zufolge irgendwie damit belegt werden, dass sie nicht ontisch sind?
Wenn ich mir die mathematischen Ausdrücke anschaue, neige ich jetzt zu der Annahme, dass die Orthonormalität durch "Superdeterminismus" in Kombination mit Vakuumschwankungen wiederhergestellt wird. Das, was wir Vakuumzustand nennen, , ist kein ontologischer Zustand, sondern eine Superposition vieler, vielleicht aller CA-Zustände. Die Phasen können beliebig gewählt werden, aber es ist sinnvoll, sie so zu wählen für das Vakuum. Dies ist eigentlich eine nette Art, Phasen zu definieren: Alle anderen Phasen, die Sie für Nicht-Vakuumzustände einführen könnten, haben jetzt eine eindeutige Bedeutung.
Die Zustände, die wir normalerweise in einem Experiment betrachten, sind normalerweise orthogonal zum Vakuum. Wenn wir sagen, dass wir Experimente mit zwei Zuständen machen können, und , die nicht orthonormal zueinander sind, bedeutet dies, dass es sich um Template-Zustände handelt; Es ist einfach, solche Zustände zu konstruieren und zu berechnen, wie sie sich entwickeln. Es ist jedoch davon auszugehen, dass es sich tatsächlich um die ontologischen Zustände handelt mit nicht verschwindendem Innenprodukt mit , muss sich von den Zuständen unterscheiden die vorkommen in , sodass trotz Vorlage . Das liegt daran, dass sich das Universum nie genau wiederholt. Meine physikalische Interpretation davon ist "Superdeterminismus": Wenn Alice (oder Bob) in einem EPR- oder Bell-Experiment ihre (seine) Meinung darüber ändert, was gemessen werden soll, arbeitet sie (er) mit Zuständen die sich alle von allen Zuständen unterscheiden früher verwendet. In den Schablonenzuständen muss man nur von mindestens einer Änderung in einem der physikalischen Zustände irgendwo anders im Universum ausgehen. Der Widerspruch verschwindet dann.
Die Rolle von Vakuumfluktuationen ist auch unvermeidlich, wenn man den Zerfall eines instabilen Teilchens betrachtet.
Ich denke, es gibt kein Problem mit den obigen Argumenten, aber manche Leute finden es schwierig zu akzeptieren, dass die Arbeit ihres Verstandes überhaupt einen Einfluss auf Vakuumfluktuationen haben kann, oder umgekehrt, dass Vakuumfluktuationen ihren Verstand beeinflussen könnten. Der „freie Wille“ eines Beobachters ist gefährdet; die Leute werden das nicht mögen.
Aber am beunruhigendsten wäre, dass dieses Argument implizieren würde, dass das, was meine Freunde in Harvard und an anderen Orten seit vielen Jahrzehnten lehren, eigentlich falsch ist. Ich möchte bescheiden bleiben; Ich finde das beunruhigend.
Eine überarbeitete Version meiner neuesten Arbeit wurde jetzt an das arXiv gesendet (wird voraussichtlich ab Montag oder Dienstag verfügbar sein). Danke an alle. Meine Schlussfolgerung hat sich nicht geändert, aber ich habe jetzt genauere Argumente bezüglich der Bellschen Ungleichungen und was Vakuumfluktuationen mit ihnen machen können.
Ich kann Ihnen sagen, warum ich nicht daran glaube. Ich denke jedoch, dass meine Gründe anders sind als die der meisten Physiker.
Reguläre Quantenmechanik impliziert die Existenz von Quantencomputern. Wenn Sie an die Schwierigkeit des Faktorisierens glauben (und an eine Reihe anderer klassischer Probleme), dann scheint eine deterministische Untermauerung der Quantenmechanik eines der folgenden zu implizieren.
Keines davon erscheint mir überhaupt wahrscheinlich. Erstens ist es durchaus vorstellbar, dass es einen Polynomzeitalgorithmus zum Faktorisieren gibt, aber Quantencomputer können viele ähnliche Periodizitätsprobleme lösen, und Sie können argumentieren, dass es keinen einzigen Algorithmus geben kann, der alle auf a löst klassischen Computer, also müssten Sie für jedes klassische Problem, das ein Quantencomputer durch Periodenfindung lösen kann, verschiedene klassische Algorithmen haben.
Für die zweite, deterministische Untermauerung der Quantenmechanik, die erfordert Ressourcen für ein System der Größe sind wirklich unbefriedigend (aber vielleicht durchaus möglich ... schließlich fällt die Theorie, dass das Universum eine Simulation auf einem klassischen Computer ist, in diese Klasse von Theorien, und obwohl sie wirklich unbefriedigend ist, kann sie durch dieses Argument nicht ausgeschlossen werden).
Drittens habe ich keinen vernünftigen Weg gesehen, wie man Quantenberechnungen unmöglich machen und gleichzeitig die Übereinstimmung mit aktuellen experimentellen Ergebnissen aufrechterhalten könnte.
Dies hätte ein Kommentar sein können, aber da es tatsächlich die im Titel gestellte Frage beantwortet, werde ich es so posten:
Soweit ich das beurteilen kann, gibt es keinen vernünftigen Grund, diese Modelle von der Hand zu weisen – es ist nur so, dass die Quantenmechanik (QM) die Messlatte schrecklich hoch gelegt hat: Bisher gibt es keinen experimentellen Beweis dafür, dass QM falsch ist, und niemand ist gekommen mit einer brauchbaren Alternative.
Letztendlich muss Ihre Theorie alle experimentell verifizierten Vorhersagen der QM reproduzieren (bzw. darf nur innerhalb der experimentellen Genauigkeit abweichen). Allerdings ist es natürlich nicht nötig, willkürliche Vorhersagen zu reproduzieren – wenn Sie dies tun würden, würden Sie am Ende auf eine Umformulierung – dh eine neue Interpretation – gewöhnlicher QM hinauslaufen. Wenn Ihr Modell uns sagt, dass groß angelegte Quantenberechnungen unmöglich sind, dann liegt es an den Experimentatoren, Ihnen das Gegenteil zu beweisen.
Alle darüber hinausgehenden Einwände sind nur Psychologie am Werk: Die meisten Menschen müssen sich ziemlich anstrengen, um sich davon zu überzeugen, dass QM eine gültige Beschreibung der Welt ist, in der wir leben, und wenn ein solcher Glaube einmal verwurzelt ist, wird er leicht zum Dogma.
Gründungsdiskussionen sind in der Tat so etwas wie Diskussionen über religiöse Überzeugungen, da man Annahmen und Ansätze auf der Gründungsebene nicht beweisen oder widerlegen kann.
Darüber hinaus liegt es in der Natur von Diskussionen im Internet, dass man wahrscheinlich hauptsächlich Antworten von denen erhält, die entweder stark anderer Meinung sind (der Fall hier) oder die etwas Konstruktives hinzufügen können (was in der jüngsten Forschung schwierig zu tun ist). Ich denke, das erklärt die Antworten, die Sie erhalten, vollständig.
Ich selbst habe dazu einen Ihrer Artikel oberflächlich durchgelesen und fand es nicht erfolgsversprechend, sich mehr mit den technischen Fragen zu beschäftigen.
Ich stimme jedoch zu, dass sowohl Viele-Welten- als auch Pilotwellen inakzeptable physikalische Erklärungen der Quantenphysik sind, und ich arbeite an einer alternativen Interpretation.
Meiner Ansicht nach wird Teilchen-Nichtlokalität dadurch erklärt, dass Teilchen jede ontologische Existenz negieren. Es gibt Quantenfelder, und auf der Quantenfeldebene ist alles lokal. Nichtlokale Merkmale erscheinen nur, wenn man den Feldern eine Teilcheninterpretation auferlegt, die, obwohl sie unter den üblichen Annahmen der geometrischen Optik gültig ist, bei höherer Auflösung drastisch versagt. Somit muss im Bereich des Versagens nichts erklärt werden. So wie die lokalen Maxwell-Gleichungen für ein klassisches elektromagnetisches Feld die Einzelphotonen-Nichtlokalität (Doppelspaltexperimente) erklären und die stochastischen Maxwell-Gleichungen alles über einzelne Photonen erklären (siehe http://arnold-neumaier.at/ms/optslides.pdf ), lokale QFT erklärt also die allgemeine Partikel-Nichtlokalität.
Meine thermische Interpretation der Quantenphysik (siehe http://arnold-neumaier.at/physfaq/therm ) gibt eine Sicht auf die Physik im Einklang mit der tatsächlichen experimentellen Praxis und ohne die Fremdheit, die durch die üblichen Interpretationen eingeführt wird. Ich glaube, dass diese Interpretation in jeder Hinsicht zufriedenstellend ist, obwohl es mehr Zeit und Mühe erfordert, die Standardrätsel in dieser Richtung zu analysieren, mit einer klaren statistisch-mechanischen Ableitung, um meine bisher hauptsächlich qualitativen Argumente zu stützen.
Bei der Darstellung meiner grundlegenden Ansichten in Online-Diskussionen hatte ich ähnliche Schwierigkeiten wie Sie; siehe z. B. den PhysicsForums-Thread „Was behauptet die probabilistische Interpretation von QM?“ http://www.physicsforums.com/showthread.php?t=480072
Hier stellen sich zwei Fragen: Warum Ihre Modelle kritisieren? Und gibt es bessere Ideen? Ich werde versuchen, die zweite Frage in einer separaten Antwort zu beantworten. Hier gebe ich nur einige Bemerkungen allgemeiner Art zur Beantwortung der ersten Frage.
Ich persönlich stimme Ihnen zu, und ich denke, die meisten Leute, die sich für dieses Zeug interessieren, auch, dass es beunruhigend ist, eine Theorie zu haben, in der die durch Beobachtungen erzeugten Informationen nicht in der Theorie selbst enthalten sind, sondern aus dem Nichts hervorgebracht werden durch einen Messakt. Die natürliche Idee ist, dass, wenn wir ein bisschen Information sehen, die durch einen Beobachtungsakt erzeugt wurde, der Wert dieses Bits irgendwie in der vollständigen Beschreibung der Natur enthalten war, unabhängig von dem Akt der Beobachtung. Dies war Einsteins Realitätsprinzip, und ich stimme zu, dass es für eine Theorie vorzuziehen ist, ihm zu gehorchen.
Wenn eine Theorie dem Realitätsprinzip nicht gehorcht, muss man beachten, dass die makroskopische Realität ihr gehorcht, und die Bits in der makroskopischen Welt durch eine philosophisch verzerrte Umwegübung in Mystik finden. Aber da die Physik empirisch ist und der Positivismus fruchtbar ist, vertrete ich den Standpunkt, dass jeder Rahmen, der die Ergebnisse von Beobachtungen erklärt, letztendlich philosophisch in Ordnung sein muss, auch wenn er Verrenkungen erfordert, und selbst wenn er nicht korrekt ist! Also ist Newtons Mechanik, auch wenn sie falsch ist, nicht unbedingt falschEmpirisch widerlegbar nur bei Beobachtungen von Menschen und so weiter, also darf es nicht philosophisch unvereinbar mit freiem Willen sein. Ebenso könnte die Quantenmechanik falsch sein, aber wir haben keine empirischen Daten, die zeigen, dass sie falsch ist, daher sollte es philosophisch konsistent sein zu sagen, dass QM alles ist, was es gibt. Das bedeutet, dass QM auch Beobachter beschreiben sollte, und wenn es keinen mathematischen Widerspruch zu dieser Ansicht gibt, sollte es auch keinen philosophischen Widerspruch geben, selbst wenn es einen Widerspruch zum Experiment gibt. Das ist die Viele-Welten-Philosophie, und es ist die selbstkonsistente Antwort, wenn die Quantenmechanik richtig ist. Es mag ärgerlich sein, aber ich denke nicht, dass es zu ärgerlich ist – man sollte einfach lernen, mit der Viele-Welten-Position als feine philosophische Position zu leben.
Aber es ist falsch, an dieser Stelle einfach „viele Welten“ zu sagen, weil die Quantenbeschreibung nicht in dem Bereich getestet wurde, in dem die vielen Welten eine echte logisch-positivistische Manifestation haben – am offensichtlichsten bei der Faktorisierung von enorm großen Zahlen mit einem Quantencomputer. Bis wir dies tun, ist es definitiv denkbar, dass die Natur für kleine Systeme aus wenigen Teilchen in den Fällen, in denen wir die Theorie bereits getestet haben, nur sehr nahe angenähert Quanten ist und für hochverschränkte Vielteilchensysteme einfach nicht Quanten ist.
Selbst wenn sich herausstellt, dass die Welt wirklich aus Quanten besteht und ein Quantencomputer ständig Zahlen berücksichtigt, ist das Auffinden einer deterministischen Unterstruktur nützlich, um in Fällen, in denen es sich nicht um einen Quantencomputer handelt, eine rechnerisch handhabbare kleine Verkürzung der Quantenmechanik zu erhalten, und es ist möglich dass diese Kürzung für Quantensimulationen nützlich sein kann. Dies ist so notwendig, dass ich persönlich das Finden einer Unterstruktur der Quantenmechanik für ein zentrales wichtiges Problem halte, unabhängig davon, ob es sich als richtig herausstellt. Aus diesem Grund habe ich viel Zeit darauf verwendet, Ihren Ansatz zu verstehen.
Das Problem mit Ihrer Konstruktion ist, dass sie zu gut funktioniert , es ist zu einfach, ein Quantensystem in eine benutzbare Basis umzuwandeln, so dass sich die globale Wellenfunktion unter Verwendung des globalen Hamilton-Operators deterministisch entwickelt. Da Sie den Hilbert-Raum früh einführen und ihn verwenden, um die Basistransformation in die internen Zustände des Automaten durchzuführen, gibt es weder ein offensichtliches Hindernis für die Transformation eines Quantencomputers in eine beable-Basis noch ein Hindernis für die lokale Verletzung der Bellschen Ungleichung. Diese legen nicht nahe, dass die No-Go-Theoreme fehlerhaft sind, sondern sie legen nahe, dass die Transformation zu einer befähigen Basis mit einem Permutations-Hamilton-Operator kein echtes klassisches System erzeugt.
Die genaue Art und Weise, in der ich glaube, dass dieses System nicht klassisch ist, liegt in der Zustandsvorbereitung im Inneren. Der Prozess der Zustandsvorbereitung umfasst eine Messung, die Verschränkung eines inneren Subsystems mit einem makroskopischen Subsystem und dann eine Reduktion des makroskopischen Systems gemäß der Bornschen Regel, wobei ein reiner Quantenzustand des inneren Subsystems zurückbleibt. In Ihrem Artikel über die Bornsche Regel haben Sie vorgeschlagen, wie die Reduktion in einem CA-System ablaufen sollte, aber Ihre präzisen Modelle respektieren diese Intuition nicht wirklich, da die Messung von Zwischenzuständen immer einen der Eigenzustände des Beobachtbaren im Inneren erzeugt, egal wie kompliziert die Observable und wie verschränkt ihre Eigenzustände sind. Dies ermöglicht es Ihnen, die Quantenmechanik auf den inneren Subsystemen zu reproduzieren, Ich bin mir einigermaßen sicher, dass dies den Zustand nicht überlagert in der beable-Basis hält. Da diese internen Reduktionen die Wahrscheinlichkeitsstruktur nicht respektieren, betreiben Sie wirklich Quantenmechanik und nicht CA, und dies ist der einzige Grund, warum es Ihnen so leicht fällt, die No-Gos zu umgehen.
Die Tatsache, dass Sie die No-Gos ohne Schwierigkeiten umgehen, deutet stark darauf hin, dass Ihre Konstruktion den Raum der zulässigen klassischen Wahrscheinlichkeitsverteilungen auf der CA irgendwie verlässt. Der einzige Ort, an dem dies geschehen kann, ist während der internen Zustandsvorbereitung, während Messungen interner Operatoren. So bereitet man schließlich Bell-Zustände oder Quantencomputer vor. Diese inneren Operationen müssen (nach der Projektion) Zustände erzeugen, die nicht als klassische Wahrscheinlichkeitszustände des Automaten interpretiert werden können, obwohl die Hamiltonsche Evolution dies niemals tut. Dies ist kein Beweis, aber ich würde viel Geld verwetten (wenn ich welches hätte). Ich habe hier um einen Beweis gebeten: Halten Messungen in 't Hooft beable-Modellen die Zustände klassisch?
Dies ist Teil I der Antwort, ich poste ihn separat, damit Personen, die diesem Teil zustimmen, den zweiten Teil, der einem anderen Ansatz zum Herausholen der Quantenmechanik aus Automaten gewidmet ist, nicht positiv bewerten müssen, um den zweiten zu beantworten Frage.
Diese Frage versucht, die Quantenmechanik von klassischen Automaten mit einem probabilistisch unbekannten Zustand zu reproduzieren.
Beginnen Sie mit einer klassischen CA und einer Wahrscheinlichkeitsverteilung auf der CA. Um die Dinge allgemein zu halten, erlaube ich der CA, eine gewisse nicht-deterministische Evolution zu haben, aber nur stochastische Wahrscheinlichkeit, keine Quantenevolution, und es ist nicht notwendig, Sie können die Wahrscheinlichkeit immer in die Anfangsbedingungen setzen, ohne Stochastik in Zwischenzeiten, das ist es nur eine Option.
Der erste Punkt zu diesen stochastischen Systemen wird hier detailliert: Konsequenzen des neuen Theorems in der QM? (im Abschnitt über Entenfüße). Wenn der Wahrscheinlichkeitsfluss immer zwischen Zuständen verläuft, in denen sich die Wahrscheinlichkeit nur infinitesimal von der stationären Verteilung unterscheidet, dann ist der klassische Fluss entropieerhaltend und umkehrbar, selbst wenn er probabilistisch und diffus ist. Dies ist die zentrale Motivation für die Konstruktion, und man sollte sich ansehen, wie der im Diffusor des Wärmetauschers diffundierende Partikel reversibel von Raum zu Raum hin und her springt, und zwar auf lineare Weise, die von einem Operator mit einem meist komplexen Eigenwert beschrieben wird, obwohl dies der Fall ist immer nur zwischen verschiedenen zugelassenen Regionen diffundiert.
Betrachten Sie eine klassische Wahrscheinlichkeitsverteilung auf einer CA, wobei B der Zustand aller Bits ist, aus denen der Automat besteht
ist die Information, die in der vollständigen Kenntnis des Automatenzustands enthalten ist, über der von der Verteilung bereitgestellten. Wenn Sie eine Störung erster Ordnung machen, ändern Sie sich zu , Sie finden
Wann gleichförmig ist, verschwindet die Korrektur erster Ordnung, da die Summe von Null ist, und die Korrektur zweiter Ordnung gibt eine quadratische metrische Struktur an .
Das ist es, was ich als Prä-Quanten-Struktur im Raum der Störungen der Gleichverteilung identifiziere. Der Grund, warum es so symmetrisch ist (wie eine Kugel, nicht wie ein Simplex), liegt darin, dass die Störung klein ist. Die Reversibilität wird durch die Erhaltung der Entropie gefordert, und die Erhaltung der Entropie erfordert, dass alle Transformationen weitergehen sind orthogonal.
Das Bild in nullter Ordnung ist, dass fast jeder Zustand gleich wahrscheinlich ist, aber einige Zustände sind etwas wahrscheinlicher als andere, und die durch Experimente offenbarten Informationen erzeugen nur eine leichte Verzerrung für einige Zustände und nicht für andere. Diese geringfügigen Verzerrungen sind dann symmetrischer als der zugrunde liegende Wahrscheinlichkeitsraum für Automatenzustände, da diese Verteilungen nie genug von der Einheitlichkeit abweichen, um die Ecken des einfachen Wahrscheinlichkeitsraums zu sehen. Die Ecken sind die Zustände, in denen die Automatenbits sicher bekannt sind, und wenn Sie immer weit von diesen entfernt sind, können Sie eine symmetrische und umkehrbare probabilistische Dynamik finden.
Hier ist das zentrale Problem bei diesem Ansatz – es ist unmöglich für eine Information, die Störungen enthält überall klein sein. Der Grund ist, dass ein überall klein zwangsläufig einen Zustand erzeugt, der fast nicht vom einheitlichen Zustand zu unterscheiden ist, und der daher eine Störung verursacht, die darauf hinweist, dass Sie viel weniger als nur 1 Bit an Informationen gelernt haben. Wenn Sie beispielsweise einen N-Bit-Automaten haben und eine Verteilung erstellen, bei der die Wahrscheinlichkeit jedes Bitwerts dazwischen liegt und , erhalten Sie einen Informationsgehalt, der nach oben durch ein kleines Vielfaches von begrenzt ist Bits.
Der Grund dafür ist, dass das Erlernen auch nur eines Bits an Informationen über einen Automatenzustand die Anzahl der Zustände, die Sie einnehmen können, grob um den Faktor 2 reduziert. Dies bedeutet, dass die wahre Wahrscheinlichkeitsverteilung bei mindestens der Hälfte der Konfigurationen signifikant klein sein muss, und das auch kann keine kleine Störung sein. Das bedeutet, dass die Informationserweiterung zusammenbricht, und hier steckte ich lange fest
Der Grund, warum der Begriff "kleine Störung" versagt, liegt darin, dass eine kleine Störung, wie im Beispiel der Entenfüße, nicht global klein ist, sondern nur die Eigenschaft hat, dass das Verhältnis der Wahrscheinlichkeiten zwischen zwei nahegelegenen Zuständen klein ist. Wenn die Zustände durch unabhängiges Variieren vieler Bits hergestellt werden, gibt es viele Zustände mit dem gleichen Wahrscheinlichkeitsverhältnis.
Die Lösung könnte genauso gut der folgende einfache Trick sein: Erhöhen Sie einfach alles mit der M-ten Potenz. Wenn Sie ein System mit Zuständen haben, die durch i eine ganze Zahl im Bereich 1,2,...,N und eine Störung indiziert sind
Sie können die M-te Tensorpotenz von nehmen , um eine Produktverteilung auf dem Tensorraum mit M Indizes zu erzeugen . Diese Produktverteilung ist durch die Bedingung definiert, dass die Änderung jedes Werts i von einem Wert zu einem anderen dieselbe Verhältnisänderung der Wahrscheinlichkeit erzeugt.
Jetzt ist es erlaubt klein zu sein, auch wenn die Informationen darin sind ist es nicht, weil die M-te Potenz überhaupt nicht klein ist. In der Tat, in diesem System, weil es ein Tensorprodukt ist, wenn Sie wissen, dass der Informationsgehalt von bin ich Bits insgesamt, dann lernst du das
Mit anderen Worten, die endlichen Informationsstörungen der stationären Verteilung auf einem System mit M Kopien bilden einen (realen, nicht komplexen) Hilbert-Raum, der immer perfekter wird, wenn M gegen unendlich geht. Wenn die Dynamik Entenfüße ist, was bedeutet, dass die Entropie bei der kleinen Störung erhalten bleibt, dann ist die Zeitentwicklung von ist notwendigerweise eine orthogonale Transformation, unabhängig davon, was das zugrunde liegende stochastische oder deterministische Evolutionsgesetz ist.
Die Grundidee ist, dass man aus der stochastischen Evolution von Systemen mit vielen identischen Kopien eine Quantenmechanik entstehen lassen kann, unter der Bedingung, dass die Kopien symmetrisch miteinander interagieren, so dass man nicht weiß, welche Kopie welche ist.
Um zu sehen, wie das innere Produkt herauskommt, betrachten Sie die gegenseitigen Informationen, die Ihnen sagen, wie unabhängig zwei verschiedene Verteilungen sind. In niedrigster Ordnung wird dies gefunden, indem die Informationen aufgenommen werden und und Subtrahieren der Informationen in und separat. Da dies die Normen sind, finden Sie
Wenn Sie also zwei Verteilungen haben, teilen sie Zustände in dem Maße, in dem ihr inneres Produkt ungleich Null ist.
Es besteht kein Zweifel, dass es möglich ist, quantenintegrierbare Modelle ziemlich effizient und einfach mit klassischen Systemen zu reproduzieren. Und von allen integrierbaren Systemen sind harmonische Oszillatoren eines der einfachsten. Die eigentliche Herausforderung besteht darin, nichtintegrierbare Quantensysteme zu reproduzieren. Kann man Quantenchaos reproduzieren? Können Sie nichtintegrierbare Quantenspinmodelle über einem 1d-Raumgitter reproduzieren? Der Versuch, die Störungstheorie von integrierbaren Modellen aus zu versuchen, stößt auf das Problem, dass die Anzahl der Feynman-Diagramme exponentiell mit der Anzahl der Schleifen wächst.
Neugieriger George
FrageAntworten
Benutzer11403
anna v
anna v
Ron Maimon
Lubos Motl
Ron Maimon
Lubos Motl
Lubos Motl
Ron Maimon
Ron Maimon
Ron Maimon
Lubos Motl
Lubos Motl
Lubos Motl
Ron Maimon
Ron Maimon
Ron Maimon
Lubos Motl
Lubos Motl
Lubos Motl
FrageAntworten
G.'t Hooft
G.'t Hooft
G.'t Hooft
G.'t Hooft
Columbia
Ron Maimon
Ron Maimon
Ron Maimon
Ron Maimon
anna v
Ron Maimon
Ron Maimon
Lubos Motl
G.'t Hooft
G.'t Hooft
Benutzer7348
G.'t Hooft
Benutzer7348
FrageAntworten
Benutzer7348
Benutzer7348
FrageAntworten
Benutzer7348
FrageAntworten
Benutzer7348
G.'t Hooft
G.'t Hooft
G.'t Hooft
Benutzer7348
Benutzer7348
G.'t Hooft
G.'t Hooft
Benutzer7348
Diego Mazon
Diego Mazon
G.'t Hooft
G.'t Hooft
G.'t Hooft
Benutzer7348
G.'t Hooft
G.'t Hooft
Benutzer7348
Benutzer7348
G.'t Hooft
Elektronenschieber
Galen