Derzeit findet im führenden Mathematikblog Gödel's Lost Letter eine Debatte zwischen Gil Kalai und Aram Harrow statt, wobei ersterer argumentiert, dass der Bau eines Quantencomputers aufgrund der Rauschausbreitung möglicherweise nicht möglich ist, und letzterer das Gegenteil behauptet.
Ich frage mich, ob es irgendein Argument dafür gibt, dass der Bau eines Quantencomputers möglich ist, indem gezeigt wird, dass Quantencomputer in der physischen Welt offensichtlich sind.
Die Frage ist also:
(A) Gibt es bekannte Beispiele für physikalische Wechselwirkungen, bei denen festgestellt werden konnte, dass Zustandsübergänge auf Makroebene nur mit einer zugrunde liegenden Quantenberechnung übereinstimmen? D. h., ähnlich wie Shors Algorithmus exponentiell schneller ist als jeder bekannte klassische Faktorisierungsalgorithmus, gibt es irgendwelche Beispiele bekannter physikalischer Prozesse, zum Beispiel Störungsstabilisierung in einem sehr großen Teilchencluster, die gezeigt werden könnten, wenn man P <> NP annimmt, nur effizient zu sein durch eine Quantenrechnung gelöst.
Einige, ich gebe zu, sehr spekulative Zusatzfragen wären dann:
(B) Ist die Lichtgeschwindigkeitsschranke möglicherweise eine natürliche Rechengrenze unseres speziellen Universums, so dass dies für die Klasse der Rechenkomplexität der Quantenmechanik, die an einer zugrunde liegenden relationalen netzwerkartigen Raumzeitstruktur arbeitet, die maximale Geschwindigkeit ist, die die Rechenregeln regeln kann eine Teilchen/Wellen-Darstellung durch eine Netzwerkregion der niedrigsten Energie/Komplexität (dh ein Vakuum) bewegen?
(C) Ist die Quantenmechanik eine tatsächliche Notwendigkeit für das Universum, um auf der Makroebene den klassischen physikalischen Gesetzen zu folgen? Das informelle Argument ist, dass bei Wechselwirkungen auf Quantenebene von vielen zu vielen Partikeln nur die Fähigkeit jedes Partikels, eine unendliche oder quantenquasi-unendliche Anzahl von Pfaden parallel zu berechnen, es dem Universum ermöglicht, eine Echtzeitlösung aufzulösen die Makroebene.
Bitten Sie um Referenzen zu Forschungsarbeiten in dieser Richtung oder um Argumente, die diese Spekulationen stützen oder ihnen widersprechen.
Die Antwort auf diese Frage ist ein überraschendes Nein, und das liegt nicht daran, dass wir nicht genug Quantensysteme haben. Wir haben viel. Das Problem ist, dass wir, wenn ein natürliches System mit einer großen Anzahl von Teilchen eine Berechnung implementiert, die exponentielle Ressourcen erfordert, die Berechnung nicht durchführen können, um zu überprüfen, ob die Quantenmechanik genau ist. Die Quantenmechanik könnte in hocherregten, hochverschränkten Kernzuständen ständig versagen, aber wir würden es nicht wissen, weil wir die genauen Energieniveaus nicht berechnen können, wir können uns nur auf Experimente verlassen.
Erstens implementiert für A jedes Quantensystem mit einer großen Anzahl von Teilchen und starken Wechselwirkungen eine nicht triviale Quantenberechnung, aber wir können nicht überprüfen, ob es sie richtig macht. Wenn Sie beispielsweise einen Urankern in einen sehr hoch angeregten Zustand anregen, sodass er Röntgenstrahlen, Neutronen und Protonen emittieren kann, und sich das Strahlungsspektrum von Materie ansehen, sind die Amplituden für die Emission ein hochkompliziertes Produkt von 250 Teilchensystem mit nicht berechenbaren Verschränkungen. Diese Berechnungen können einfach von keinem klassischen Computer durchgeführt werden, sodass wir einfach nicht wissen würden, ob die Quantenmechanik versagt. Aber ja, ein Urankern in einem angeregten Zustand von 700 MeV führt eine unglaublich komplexe Quantenberechnung durch, die wir nicht einmal mit einem Computer von der Größe des Universums berechnen können.
Für B --- Ihre Frage ist unsinnig, aber die Lichtgeschwindigkeit begrenzt die Informationsübertragungsgeschwindigkeit in einem Computer. Dies ist keine große Einschränkung des Prinzips, da es nur besagt, dass ein Berechnungsschritt, der Daten von Punkt A nach Punkt B bewegt, eine Zeit benötigt, die proportional zur Entfernung zwischen A und B ist. Dies hat keinen Einfluss auf die Berechnungskomplexität, weil Sie können die Bewegung in Polynomzeit in der Größe Ihres Gedächtnisses ausführen, selbst wenn es ineffizient in einer geraden Linie angeordnet ist. Dies ist ein roter Hering. Die Worte "Dies ist die maximale Geschwindigkeit, mit der ein masseloses Teilchen einen aufgelösten Weg berechnen kann, wenn es sich durch ein leeres Quantenfeld bewegt" sind bedeutungslos.
Für C: Die Antwort hier ist nein – Sie können einfach die klassische Mechanik haben, die keine unendlichen Summen erfordert, um die Antwort zu lösen. Die Idee, dass die Quantenmechanik erforderlich ist, um klassische eindeutige Antworten zu reproduzieren, ist seltsam, weil es tatsächlich mysteriös ist, wie dies geschieht. Um eindeutige Ergebnisse aus dem Durcheinander der Quantenüberlagerung zu erzielen, müssen Sie davon ausgehen, dass wir Entitäten in einem Viele-Welten-Bild aufspalten, oder andernfalls von Hand Gesetze zur Definition von Definitionen aufstellen, die dasselbe effektiv tun. Wenn die Natur grundsätzlich klassisch ist, wird dies keine Rolle spielen.
Das Argument, das Gil Kalai vorbringt, ist interessant, aber schlecht formuliert. Christopher Moore hat den Punkt im ersten der Kommentare hier treffend dargelegt: http://rjlipton.wordpress.com/2012/01/30/perpetual-motion-of-the-21st-century/ , und ich möchte es nicht wiederholen zu viel. Wenn Sie vorschlagen, dass die Quantenberechnung scheitern wird, behaupten Sie, dass die Quantenmechanik falsch ist und dass das Scheitern bei hochgradig verschränkten großen physikalischen Systemen auftritt.
Das Argument gegen die Quantenmechanik wegen der Unplausibilität eines physikalischen Systems, das eine Exponentialrechnung durchführt, ist völlig anders als andere Argumente gegen die Quantenmechanik. Das philosophische Prinzip ist, dass die Natur nicht viel rechenintensiver sein kann als wir, weil dies ein mystisches Element der prinzipiellen Unberechenbarkeit in große Quantensysteme in der Natur einführt. Dieses Prinzip ist für die Literatur neu, aber nicht Gil Kalai zu verdanken. Ich habe es vor einem Jahrzehnt zum ersten Mal von CS-Student Abram Connely gehört, dies war sein persönlicher Beef mit Quantenmechanik. Ich fand es einen überzeugenden und interessanten Punkt, und ich habe versucht, es in meiner Antwort hier darzulegen: Konsequenzen des neuen Theorems in der QM?. Die genaue Formulierung, die Kalai angibt, ist interessant, aber suboptimal formuliert.
Um zu glauben, dass Quantencomputer unmöglich sind, braucht man unbedingt ein neues Gesetz der Physik, das die Quantenmechanik ersetzt, oder zumindest ein Prinzip, um zu bestimmen, wie die Quantenmechanik versagt. Die Aussage, dass der Fehler grundlegend ist, weil das Universum nicht so kompliziert sein kann, erfordert, dass Sie zumindest versuchen, anzugeben, wie das Universum vereinfacht werden kann.
Es ist falsch zu argumentieren, dass einfaches Implementierungsrauschen Quantencomputing unmöglich macht, ohne den Vorschlag zu machen, dass es ein Naturgesetz gibt, das Quantencomputing-Verschränkungen verbietet. Der Grund dafür ist, dass Sie das Rauschen einfach entfernen können, indem Sie das System abkühlen und die Teile präzise machen. Auch ohne Fehlerkorrektur gibt es keine prinzipielle Begrenzung für die Größe des Quantencomputers. Die Quantenfehlerkorrektur ist für die Umsetzung in der Praxis von zentraler Bedeutung, aber im Prinzip können Sie sich einen perfekten Computer vorstellen und einem immer kälteren System immer näher kommen, ohne Begrenzung, außer wie viel Sie bereit sind auszugeben.
Ein Versagen der Quantenmechanik, das nur die gegenseitige Verschränkung einer großen Anzahl von Quantenteilchen betrifft, kann leicht der Entdeckung entgangen sein, aber wenn man Änderungen an der Quantenmechanik vorschlägt, muss man prüfen, ob sie nicht zu Dingen führen, die der Entdeckung nicht entgangen wären. Dinge wie das Versagen der Energieerhaltung, das Versagen der Wenig-Teilchen-Kohärenz, irreversibler Informationsverlust in Wenig-Körper-Systemen, Reibung in Atombewegungen und alle möglichen anderen Dinge.
Um diese Dinge zu überprüfen, reicht es nicht aus, das Rechenfehlerprinzip über ein abstraktes Rechengerät zu formulieren. Man muss zeigen, wie dieses Prinzip die Dynamik realer Wellenfunktionen im atomaren Maßstab modifiziert. Die Idee, dass dies eine Nichtlinearität in der Schrödinger-Gleichung ist, ist einfach schlecht. Wenn Sie also eine solche Modifikation vorschlagen, sollte dies daran liegen, dass die SE eine emergente Beschreibung eines grundlegend klassischen Systems ist.
Diese Ideen stammen von t'Hooft, der ebenfalls skeptisch gegenüber Quantencomputern ist, hauptsächlich aus dem gleichen Grund, aus dem Einstein gegenüber Quantenmechanik skeptisch war. t'Hooft hat mehrere Modellversuche unternommen, um die Quantenmechanik durch ein System zu ersetzen, das keine exponentiellen Berechnungen durchführen kann, und wenn man grundlegende Dekohärenz vorschlägt (was Gil Kalai tut), sollte man dies tun im Kontext zumindest einer Spekulation über das zugrunde liegende Substrat.
Die Experimente von John Bush zur Pilotwellen-Hydrodynamik haben offensichtlich bewiesen, dass eine Replikation von Quanteneffekten im Makromaßstab durchaus möglich ist, die Kopenhagener Interpretation könnte in Schwierigkeiten geraten, und die Antwort auf Ihre Frage könnte schließlich "Ja" lauten, Zur Überraschung der meisten von uns.
Abgesehen davon bezweifle ich, dass die in dieser Antwort zum Ausdruck gebrachte Ansicht wahrscheinlich sehr populär sein wird, bis weitere Experimente durchgeführt werden.
Ich wollte nur kommentieren, aber es wurde zu lang. Ich wollte etwas zu (A) sagen.
Spin-Flips stehen offensichtlich in einer natürlichen Entsprechung zu Quantenberechnungen und treten ständig auf. Dennoch wage ich nicht zu argumentieren, dass sie „nur in Übereinstimmung mit Quantenberechnungen“ stehen, denn Sie könnten dann absolut alles „entsprechen“, was Sie wollen. Eigentlich kann man auch sagen, dass sie klassischen Münzwürfen entsprechen. Ein eher quantenhaftes (vielleicht nicht sehr aussagekräftiges) Beispiel: Man " könnte " immer noch sagen, das Universum sei ein analoger Quantencomputer, der sich selbst simuliert.
Vielleicht relevanter, warum sollte ein Argument dieser Art ein Hinweis darauf sein, dass Quantencomputer konstruiert werden können? Nehmen Sie an, dass das Argument, das Sie vorschlagen, in starkem Sinne gültig ist und dass außerdem Quantencomputer nicht konstruiert werden können. Da lassen sich klassische Computer konstruieren. Dann könnten Sie perfekt argumentieren, dass wir das Universum als einen klassischen Computer betrachten "sollten", der einen verwendet -weite Argumentation. Auch wenn Sie nicht an Quantencomputer glauben, sieht dies für einen modernen Physiker nicht nach einem brauchbaren Bild der Realität aus. Wo ordnen Sie all die experimentell nachgewiesenen Quanteneffekte ein?
Das Folgende ist äußerst spekulativ und einige der Argumente sind anthropomorph, also lesen Sie auf Ihrer eigenen Toleranzebene. Es bezieht sich im Wesentlichen auf die Interpretation der physikalischen Welt in Begriffen der Informationstheorie und möglicherweise der Quantenmesstheorie, anstatt direkt aus der Quantenmechanik.
Wenn wir Raum oder Raumzeit als eine statistische Konstruktion aus endlichen Informationen betrachten, die im Laufe der Zeit gewonnen wurden, und es eine untere diskrete Zeitgrenze wie die Planck-Zeit gibt, muss es tatsächlich eine solche Geschwindigkeitsgrenze geben (vielleicht c oder ein Vielfaches von c). entsteht auf natürliche Weise, da der Beobachter keine Objekte wahrnehmen kann, die sich schneller bewegen als die endliche Geschwindigkeit, mit der er/sie die metrischen Beziehungen zwischen Raumzeitpunkten berechnen kann. Schneller als diese Grenze zu reisen, wäre wie zu versuchen, Ihren Kuchen zu haben und ihn auch zu essen ... Sie könnten kein Objekt beobachten, das schneller als Licht ist, weil Sie nicht die Zeit hätten, den Weltraumhintergrund anhand der erhaltenen Informationen wahrzunehmen. Nun könnte diese Idee sehr interessante Schlupflöcher aufweisen, die unter bestimmten Umständen FTL zulassen könnten, insbesondere wenn der Raum mit einer Geschwindigkeit geschaffen werden kann, die schneller ist als die Lichtgeschwindigkeit, wie es vielleicht im frühen Universum der Fall war. Man könnte auch argumentieren, dass FTL in diesem Szenario möglicherweise nur nicht direkt beobachtbar ist. Wenn c die tatsächliche Geschwindigkeitsbegrenzung ist, ist ein zu erwartender experimenteller Effekt das Mischen von x-, y- und z-Koordinaten bei Geschwindigkeiten nahe c, so dass es auch eine y/z-Kontraktion sowie eine Lorentz-x-Kontraktion geben sollte.
Vielleicht interessanter als das Festlegen einer einfachen Geschwindigkeitsbegrenzung ist jedoch, dass die Arten solcher statistisch bestimmter Hintergrundräume, die von einem Beobachter realistisch gemessen und bestimmt werden könnten, möglicherweise tiefere Verbindungen zur Gravitation bei großen offenen Maßstäben und O(N)-Gruppen bei kleinen geschlossenen Maßstäben haben . Der euklidische Raum, den wir im Allgemeinen auf Zwischenskalen zwischen diesen beiden Extremen beobachten, hat sehr einfache und einzigartige symmetrische Eigenschaften (Rotation, Translation, Inversionsinvarianz), von denen man erwarten könnte, dass sie auf natürliche Weise aus jeder statistischen Konstruktion aller möglichen Räume hervorgehen, ähnlich wie bei Feynman viele Pfade zusammenlaufen das Prinzip der kleinsten Wirkung. In sehr großen Maßstäben Es gibt jedoch definitiv dimensionale (und wahrscheinlich topologische) Einschränkungen für die Wahrnehmung eines solchen statistischen Raums, die die Einführung von Asymmetrien (und damit Krümmungen) erfordern würden. Wir können zum Beispiel einen Beobachter, der nur endliche Mengen an Informationen über seinen Raum über die Zeit sammeln kann, als Irrläufer annähern, der pro Zeiteinheit einen Raumpunkt auf einem Raumgitter beobachten kann. Es ist eine wohlbekannte Tatsache, dass der Beobachter auf einem unendlichen Gitter, das höher als zwei Dimensionen ist, trotz einer unendlichen Beobachtungszeit nur endlich viele Male zu einem beliebigen Punkt oder Übergang zurückkehren/beobachten würde und daher nicht in der Lage wäre, die Metrik statistisch zu bestimmen eines solchen Raumes! Für im Allgemeinen endliche (und damit geschlossene und kleine) Räume ist dies jedoch kein Problem,
Es ist vielleicht auch ein aufschlussreicher Anthropomorphismus, dass wir offene 2D-Räume auf zwei verschiedene Arten wahrnehmen, als eine 2D-Bildschirm-ähnliche Projektion vor uns oder als eine lineare horizontähnliche Projektion mal einer radialen Entfernung auf der Oberfläche eines Gravitationskörpers. Letzteres ist viel weniger direkt und die Linearität oder deren Fehlen scheint begrenzt und durch die Schwerkraft kontrolliert zu sein, die auf der Oberfläche eines Schwarzen Lochs, wo der Beobachter und seine Realität vollständig abgeflacht sind, ein Absolutes erreicht. Wenn es eine kontinuierliche/glatte Verbindung zwischen den beiden gäbe, könnte dies eine neue Dualität bilden.
Halfdan Faber
Halfdan Faber
Halfdan Faber
Halfdan Faber
QMechaniker
Peter Schor
Halfdan Faber
Halfdan Faber
Pratik Deoghare
Halfdan Faber
Halfdan Faber
Peter Schor
Juan Bermejo Vega
Juan Bermejo Vega