Ist das Universum ein Quantencomputer - ist die Lichtgeschwindigkeitsbarriere eine rechnerische Einschränkung

Derzeit findet im führenden Mathematikblog Gödel's Lost Letter eine Debatte zwischen Gil Kalai und Aram Harrow statt, wobei ersterer argumentiert, dass der Bau eines Quantencomputers aufgrund der Rauschausbreitung möglicherweise nicht möglich ist, und letzterer das Gegenteil behauptet.

Ich frage mich, ob es irgendein Argument dafür gibt, dass der Bau eines Quantencomputers möglich ist, indem gezeigt wird, dass Quantencomputer in der physischen Welt offensichtlich sind.

Die Frage ist also:

(A) Gibt es bekannte Beispiele für physikalische Wechselwirkungen, bei denen festgestellt werden konnte, dass Zustandsübergänge auf Makroebene nur mit einer zugrunde liegenden Quantenberechnung übereinstimmen? D. h., ähnlich wie Shors Algorithmus exponentiell schneller ist als jeder bekannte klassische Faktorisierungsalgorithmus, gibt es irgendwelche Beispiele bekannter physikalischer Prozesse, zum Beispiel Störungsstabilisierung in einem sehr großen Teilchencluster, die gezeigt werden könnten, wenn man P <> NP annimmt, nur effizient zu sein durch eine Quantenrechnung gelöst.

Einige, ich gebe zu, sehr spekulative Zusatzfragen wären dann:

(B) Ist die Lichtgeschwindigkeitsschranke möglicherweise eine natürliche Rechengrenze unseres speziellen Universums, so dass dies für die Klasse der Rechenkomplexität der Quantenmechanik, die an einer zugrunde liegenden relationalen netzwerkartigen Raumzeitstruktur arbeitet, die maximale Geschwindigkeit ist, die die Rechenregeln regeln kann eine Teilchen/Wellen-Darstellung durch eine Netzwerkregion der niedrigsten Energie/Komplexität (dh ein Vakuum) bewegen?

(C) Ist die Quantenmechanik eine tatsächliche Notwendigkeit für das Universum, um auf der Makroebene den klassischen physikalischen Gesetzen zu folgen? Das informelle Argument ist, dass bei Wechselwirkungen auf Quantenebene von vielen zu vielen Partikeln nur die Fähigkeit jedes Partikels, eine unendliche oder quantenquasi-unendliche Anzahl von Pfaden parallel zu berechnen, es dem Universum ermöglicht, eine Echtzeitlösung aufzulösen die Makroebene.

Bitten Sie um Referenzen zu Forschungsarbeiten in dieser Richtung oder um Argumente, die diese Spekulationen stützen oder ihnen widersprechen.

Dieses Buch scheint relevant zu sein: Programming the Universe: A Quantum Computer Scientist Takes on the Cosmos. Seth Lloyd. Würde annehmen, dass meine Spekulationen dort enthalten sind, habe es aber noch nicht gelesen.
Lloyds Buch enthält viel interessantes Material, insbesondere im Zusammenhang mit der Shannon-Entropie aus rechnerischer Sicht. Scheint aber nicht so, als ob er meine Spekulationen abdeckt.
Ich weiß nicht, was Ihre Frage (A) bedeutet. Sie scheinen davon auszugehen, dass Quantencomputer Dinge können, die klassische Computer nicht können. Klassische Berechnungen können alles, was Quantenberechnungen können, obwohl es möglicherweise exponentiell länger dauern könnte.
Nun, ich bin mir sicherlich bewusst, dass Quantencomputer kein Gegenbeispiel zur Church-Turing-Vermutung sind, und denke, dass ich mir des aktuellen Verständnisses der Position von BQP in der Hierarchie der Komplexitätsklassen einigermaßen bewusst bin. Ich habe mich nur gewundert, dass es ähnlich wie bei Ihrem Faktorisierungsalgorithmus, der exponentiell schneller ist als jeder bekannte klassische Algorithmus, Beispiele für physikalische Reaktionen gibt, z Quantenberechnung.
Und zur weiteren Verdeutlichung: Wenn die Antwort auf Frage (A) "Nein" lautet, dh das Universum auf keinen Fall wie ein Quantencomputer funktioniert, obwohl alle Bausteine ​​verfügbar sind, dann würde ich eher glauben, dass unsere Versuche, einen Quantencomputer wäre wahrscheinlich zwecklos. Um es klar zu sagen, ich glaube, die Antwort ist ja. –
Vielleicht möchten Sie den Blog von Scott Aaronson und seine Doktorarbeit lesen.
Ich verfolge seinen Blog. Werde mir seine Doktorarbeit anschauen. Vielen Dank.
Die These von Scott Aaranson sieht ungeheuer interessant aus und scheint von der Einleitung her sehr relevant für meine Fragen zu sein. Muss einige Zeit mit dem Lesen verbringen ... These: Limits on Efficient Computation in the Physical World, 2004, Scott Joel Aaronson, scottaaronson.com/thesis.pdf
Jetzt, wo Sie es erklärt haben, sehe ich, dass es eine vernünftige Frage ist.
Danke, jetzt ist es etwas klarer. Allerdings finde ich die Verbindung von (A) mit (B) und (C) zu schwach. Für viele Leute würde es so klingen, als würden Sie drei verschiedene Fragen stellen. Wir versuchen, eine Frage pro Beitrag auf dieser Seite zu haben, also warum lassen Sie sie nicht fallen?
Ich bin mir auch nicht sicher, ob es einen Zusammenhang zwischen Lichtgeschwindigkeit und Komplexität in dem Sinne gibt, in dem Sie fragen. Die Komplexitätstheorie wird in Bezug auf die Anzahl grundlegender Operationen geschrieben, die Sie benötigen, um eine Operation durchzuführen. Die grundlegenden Operationen haben alle geringe (Einheits-)Kosten. Es sieht so aus, als ob die Lichtgeschwindigkeit in Ihrer Argumentation mit den grundlegenden Operationen selbst zusammenhängen könnte, aber nicht mit der Häufigkeit, mit der Sie sie verwenden können.

Antworten (4)

Die Antwort auf diese Frage ist ein überraschendes Nein, und das liegt nicht daran, dass wir nicht genug Quantensysteme haben. Wir haben viel. Das Problem ist, dass wir, wenn ein natürliches System mit einer großen Anzahl von Teilchen eine Berechnung implementiert, die exponentielle Ressourcen erfordert, die Berechnung nicht durchführen können, um zu überprüfen, ob die Quantenmechanik genau ist. Die Quantenmechanik könnte in hocherregten, hochverschränkten Kernzuständen ständig versagen, aber wir würden es nicht wissen, weil wir die genauen Energieniveaus nicht berechnen können, wir können uns nur auf Experimente verlassen.

Erstens implementiert für A jedes Quantensystem mit einer großen Anzahl von Teilchen und starken Wechselwirkungen eine nicht triviale Quantenberechnung, aber wir können nicht überprüfen, ob es sie richtig macht. Wenn Sie beispielsweise einen Urankern in einen sehr hoch angeregten Zustand anregen, sodass er Röntgenstrahlen, Neutronen und Protonen emittieren kann, und sich das Strahlungsspektrum von Materie ansehen, sind die Amplituden für die Emission ein hochkompliziertes Produkt von 250 Teilchensystem mit nicht berechenbaren Verschränkungen. Diese Berechnungen können einfach von keinem klassischen Computer durchgeführt werden, sodass wir einfach nicht wissen würden, ob die Quantenmechanik versagt. Aber ja, ein Urankern in einem angeregten Zustand von 700 MeV führt eine unglaublich komplexe Quantenberechnung durch, die wir nicht einmal mit einem Computer von der Größe des Universums berechnen können.

Für B --- Ihre Frage ist unsinnig, aber die Lichtgeschwindigkeit begrenzt die Informationsübertragungsgeschwindigkeit in einem Computer. Dies ist keine große Einschränkung des Prinzips, da es nur besagt, dass ein Berechnungsschritt, der Daten von Punkt A nach Punkt B bewegt, eine Zeit benötigt, die proportional zur Entfernung zwischen A und B ist. Dies hat keinen Einfluss auf die Berechnungskomplexität, weil Sie können die Bewegung in Polynomzeit in der Größe Ihres Gedächtnisses ausführen, selbst wenn es ineffizient in einer geraden Linie angeordnet ist. Dies ist ein roter Hering. Die Worte "Dies ist die maximale Geschwindigkeit, mit der ein masseloses Teilchen einen aufgelösten Weg berechnen kann, wenn es sich durch ein leeres Quantenfeld bewegt" sind bedeutungslos.

Für C: Die Antwort hier ist nein – Sie können einfach die klassische Mechanik haben, die keine unendlichen Summen erfordert, um die Antwort zu lösen. Die Idee, dass die Quantenmechanik erforderlich ist, um klassische eindeutige Antworten zu reproduzieren, ist seltsam, weil es tatsächlich mysteriös ist, wie dies geschieht. Um eindeutige Ergebnisse aus dem Durcheinander der Quantenüberlagerung zu erzielen, müssen Sie davon ausgehen, dass wir Entitäten in einem Viele-Welten-Bild aufspalten, oder andernfalls von Hand Gesetze zur Definition von Definitionen aufstellen, die dasselbe effektiv tun. Wenn die Natur grundsätzlich klassisch ist, wird dies keine Rolle spielen.

Kommentare zur verknüpften Diskussion

Das Argument, das Gil Kalai vorbringt, ist interessant, aber schlecht formuliert. Christopher Moore hat den Punkt im ersten der Kommentare hier treffend dargelegt: http://rjlipton.wordpress.com/2012/01/30/perpetual-motion-of-the-21st-century/ , und ich möchte es nicht wiederholen zu viel. Wenn Sie vorschlagen, dass die Quantenberechnung scheitern wird, behaupten Sie, dass die Quantenmechanik falsch ist und dass das Scheitern bei hochgradig verschränkten großen physikalischen Systemen auftritt.

Das Argument gegen die Quantenmechanik wegen der Unplausibilität eines physikalischen Systems, das eine Exponentialrechnung durchführt, ist völlig anders als andere Argumente gegen die Quantenmechanik. Das philosophische Prinzip ist, dass die Natur nicht viel rechenintensiver sein kann als wir, weil dies ein mystisches Element der prinzipiellen Unberechenbarkeit in große Quantensysteme in der Natur einführt. Dieses Prinzip ist für die Literatur neu, aber nicht Gil Kalai zu verdanken. Ich habe es vor einem Jahrzehnt zum ersten Mal von CS-Student Abram Connely gehört, dies war sein persönlicher Beef mit Quantenmechanik. Ich fand es einen überzeugenden und interessanten Punkt, und ich habe versucht, es in meiner Antwort hier darzulegen: Konsequenzen des neuen Theorems in der QM?. Die genaue Formulierung, die Kalai angibt, ist interessant, aber suboptimal formuliert.

Um zu glauben, dass Quantencomputer unmöglich sind, braucht man unbedingt ein neues Gesetz der Physik, das die Quantenmechanik ersetzt, oder zumindest ein Prinzip, um zu bestimmen, wie die Quantenmechanik versagt. Die Aussage, dass der Fehler grundlegend ist, weil das Universum nicht so kompliziert sein kann, erfordert, dass Sie zumindest versuchen, anzugeben, wie das Universum vereinfacht werden kann.

Es ist falsch zu argumentieren, dass einfaches Implementierungsrauschen Quantencomputing unmöglich macht, ohne den Vorschlag zu machen, dass es ein Naturgesetz gibt, das Quantencomputing-Verschränkungen verbietet. Der Grund dafür ist, dass Sie das Rauschen einfach entfernen können, indem Sie das System abkühlen und die Teile präzise machen. Auch ohne Fehlerkorrektur gibt es keine prinzipielle Begrenzung für die Größe des Quantencomputers. Die Quantenfehlerkorrektur ist für die Umsetzung in der Praxis von zentraler Bedeutung, aber im Prinzip können Sie sich einen perfekten Computer vorstellen und einem immer kälteren System immer näher kommen, ohne Begrenzung, außer wie viel Sie bereit sind auszugeben.

Ein Versagen der Quantenmechanik, das nur die gegenseitige Verschränkung einer großen Anzahl von Quantenteilchen betrifft, kann leicht der Entdeckung entgangen sein, aber wenn man Änderungen an der Quantenmechanik vorschlägt, muss man prüfen, ob sie nicht zu Dingen führen, die der Entdeckung nicht entgangen wären. Dinge wie das Versagen der Energieerhaltung, das Versagen der Wenig-Teilchen-Kohärenz, irreversibler Informationsverlust in Wenig-Körper-Systemen, Reibung in Atombewegungen und alle möglichen anderen Dinge.

Um diese Dinge zu überprüfen, reicht es nicht aus, das Rechenfehlerprinzip über ein abstraktes Rechengerät zu formulieren. Man muss zeigen, wie dieses Prinzip die Dynamik realer Wellenfunktionen im atomaren Maßstab modifiziert. Die Idee, dass dies eine Nichtlinearität in der Schrödinger-Gleichung ist, ist einfach schlecht. Wenn Sie also eine solche Modifikation vorschlagen, sollte dies daran liegen, dass die SE eine emergente Beschreibung eines grundlegend klassischen Systems ist.

Diese Ideen stammen von t'Hooft, der ebenfalls skeptisch gegenüber Quantencomputern ist, hauptsächlich aus dem gleichen Grund, aus dem Einstein gegenüber Quantenmechanik skeptisch war. t'Hooft hat mehrere Modellversuche unternommen, um die Quantenmechanik durch ein System zu ersetzen, das keine exponentiellen Berechnungen durchführen kann, und wenn man grundlegende Dekohärenz vorschlägt (was Gil Kalai tut), sollte man dies tun im Kontext zumindest einer Spekulation über das zugrunde liegende Substrat.

Danke, Ron. +1. Stimmen Sie zu, dass B wie gesagt unsinnig ist. Werde in Kürze umschreiben, um meine beabsichtigte Bedeutung genauer zu vermitteln. Ich denke jedoch, dass dies nichts an Ihrer Antwort ändern wird. In Bezug auf A nehme ich Ihre Antwort so an: Ja, das Universum implementiert Quantenberechnungen nur auf der Quantenebene, aber auf der Makroebene können wir dies nicht verifizieren (dh es ist in unserer Welt effektiv unentscheidbar) und auch ( B) hat keinen wirklichen Einfluss auf die Entwicklung der physischen Welt auf der Makroebene.
@GrigoriStrassmann: Ja --- und deshalb bin ich persönlich vorsichtig mit Quantenberechnungen --- per Definition konnten wir nicht überprüfen, wann ein physikalisches System mehr Berechnungen durchführt, als in einen klassischen Computer der Größe passen können Universum. Shors Algorithmus ist eine geniale Ausnahme, weil wir trivial prüfen können, ob die Antwort ein Faktor der großen Zahl ist. Wir müssen also Shors Algorithmus mindestens einmal auf eine 10.000-stellige Zahl anwenden, bevor wir sicher sein können, dass QM die endgültige Theorie ist. Ich bin zu 60 % davon überzeugt, dass das funktionieren wird, aber vielleicht haben t'Hooft, Connely und Kalai recht.
Bearbeitet (B), um die ursprüngliche Absicht der Frage genauer wiederzugeben.
Ich würde zustimmen, dass Shors Algorithmus brillant ist, aber da angenommen wird, dass Factoring zur NP-Zwischenklasse von Problemen gehört, ist das Verhalten für alle NP-Probleme wie erwartet. Lösungen sind schwer zu berechnen, aber leicht zu verifizieren. Unter der Annahme eines Beweises von P<>NP, wäre ein funktionierender Quantencomputer, der sehr große Zahlen in polynomieller Zeit faktorisiert, nicht eine definitive Antwort von Ja auf Frage A?
@GrigoriStrassmann: Ja, irgendwie, bis auf schlechte Formulierungen. Um es rigoros zu machen, müssen Sie technisch beweisen, dass Factoring nicht polynomiell lösbar ist (es ist nicht NP-vollständig, also reicht es nicht aus, P<NP zu beweisen). Aus physikalischen Gründen ist es offensichtlich, dass, selbst wenn es einen komplizierten P-Faktorisierungsalgorithmus gibt, die einzige Möglichkeit, wie die Natur mit Shors Algorithmus faktorisieren könnte (was nichts anderes als eine Suche ist, was die Faktorisierung betrifft), darin besteht, es zu versuchen exponentiell viele Multiplikationen auf einmal aus, so dass Sie keinen Beweis für irgendetwas benötigen würden - QM würde sich nur als exponentiell zeigen.
Ihr neues B ist klar, aber ich denke, die klare Form der Frage macht auch die Antwort klar.
Was bedeutet es eigentlich zu sagen, dass QM genau ist? Sie meinen im Vergleich zu einer exakt kontinuierlichen Lösung? Nun, wenn es keine kontinuierlichen Strukturen in der physikalischen Welt gibt, dann werden die Ergebnisse einer physikalischen QM-Berechnung nur so genau sein, wie es die zugrunde liegenden endlichen Zustände zulassen. Es ist eine interessante Frage, ob es Versuchsaufbauten gibt, zum Beispiel mit iterierten dynamischen Quantensystemen, die solche Abweichungen von der perfekten Genauigkeit aufzeigen könnten.
„Aber ja, ein Urankern in einem angeregten Zustand von 700 MeV führt eine unglaublich komplexe Quantenberechnung durch, die wir nicht einmal mit einem Computer von der Größe des Universums berechnen können.“ – Soweit wir wissen, könnte das Universum unendlich sein. Das sollte mehr als genug Platz sein, um ein Uranatom zu berechnen, oder? (Die Berechnung kann jedoch viel Zeit in Anspruch nehmen).
@celtschk: hier Universum==das beobachtbare Universum. Die Anzahl der Bits wird durch die Anzahl der Planck-Flächen am kosmologischen Horizont angenommen. Das U-Atom mit Elektronen hat 350 Teilchen, was selbst mit einer groben Quantenbeschreibung die Größe überfordert, die Sie mit einem klassischen Computer dieser Größe simulieren können. Aber natürlich gibt es für Grundzustände oder niedrig angeregte Zustände bessere Methoden wie DFT.

Die Experimente von John Bush zur Pilotwellen-Hydrodynamik haben offensichtlich bewiesen, dass eine Replikation von Quanteneffekten im Makromaßstab durchaus möglich ist, die Kopenhagener Interpretation könnte in Schwierigkeiten geraten, und die Antwort auf Ihre Frage könnte schließlich "Ja" lauten, Zur Überraschung der meisten von uns.

Abgesehen davon bezweifle ich, dass die in dieser Antwort zum Ausdruck gebrachte Ansicht wahrscheinlich sehr populär sein wird, bis weitere Experimente durchgeführt werden.

Ich schlage vor, Ihrer Antwort so etwas hinzuzufügen , für alle, die nicht wissen, was John Bush getan hat.

Ich wollte nur kommentieren, aber es wurde zu lang. Ich wollte etwas zu (A) sagen.

Spin-Flips stehen offensichtlich in einer natürlichen Entsprechung zu Quantenberechnungen und treten ständig auf. Dennoch wage ich nicht zu argumentieren, dass sie „nur in Übereinstimmung mit Quantenberechnungen“ stehen, denn Sie könnten dann absolut alles „entsprechen“, was Sie wollen. Eigentlich kann man auch sagen, dass sie klassischen Münzwürfen entsprechen. Ein eher quantenhaftes (vielleicht nicht sehr aussagekräftiges) Beispiel: Man " könnte " immer noch sagen, das Universum sei ein analoger Quantencomputer, der sich selbst simuliert.

Vielleicht relevanter, warum sollte ein Argument dieser Art ein Hinweis darauf sein, dass Quantencomputer konstruiert werden können? Nehmen Sie an, dass das Argument, das Sie vorschlagen, in starkem Sinne gültig ist und dass außerdem Quantencomputer nicht konstruiert werden können. Da lassen sich klassische Computer konstruieren. Dann könnten Sie perfekt argumentieren, dass wir das Universum als einen klassischen Computer betrachten "sollten", der einen verwendet ϵ -weite Argumentation. Auch wenn Sie nicht an Quantencomputer glauben, sieht dies für einen modernen Physiker nicht nach einem brauchbaren Bild der Realität aus. Wo ordnen Sie all die experimentell nachgewiesenen Quanteneffekte ein?

Das Folgende ist äußerst spekulativ und einige der Argumente sind anthropomorph, also lesen Sie auf Ihrer eigenen Toleranzebene. Es bezieht sich im Wesentlichen auf die Interpretation der physikalischen Welt in Begriffen der Informationstheorie und möglicherweise der Quantenmesstheorie, anstatt direkt aus der Quantenmechanik.



Wenn wir Raum oder Raumzeit als eine statistische Konstruktion aus endlichen Informationen betrachten, die im Laufe der Zeit gewonnen wurden, und es eine untere diskrete Zeitgrenze wie die Planck-Zeit gibt, muss es tatsächlich eine solche Geschwindigkeitsgrenze geben (vielleicht c oder ein Vielfaches von c). entsteht auf natürliche Weise, da der Beobachter keine Objekte wahrnehmen kann, die sich schneller bewegen als die endliche Geschwindigkeit, mit der er/sie die metrischen Beziehungen zwischen Raumzeitpunkten berechnen kann. Schneller als diese Grenze zu reisen, wäre wie zu versuchen, Ihren Kuchen zu haben und ihn auch zu essen ... Sie könnten kein Objekt beobachten, das schneller als Licht ist, weil Sie nicht die Zeit hätten, den Weltraumhintergrund anhand der erhaltenen Informationen wahrzunehmen. Nun könnte diese Idee sehr interessante Schlupflöcher aufweisen, die unter bestimmten Umständen FTL zulassen könnten, insbesondere wenn der Raum mit einer Geschwindigkeit geschaffen werden kann, die schneller ist als die Lichtgeschwindigkeit, wie es vielleicht im frühen Universum der Fall war. Man könnte auch argumentieren, dass FTL in diesem Szenario möglicherweise nur nicht direkt beobachtbar ist. Wenn c die tatsächliche Geschwindigkeitsbegrenzung ist, ist ein zu erwartender experimenteller Effekt das Mischen von x-, y- und z-Koordinaten bei Geschwindigkeiten nahe c, so dass es auch eine y/z-Kontraktion sowie eine Lorentz-x-Kontraktion geben sollte.


Vielleicht interessanter als das Festlegen einer einfachen Geschwindigkeitsbegrenzung ist jedoch, dass die Arten solcher statistisch bestimmter Hintergrundräume, die von einem Beobachter realistisch gemessen und bestimmt werden könnten, möglicherweise tiefere Verbindungen zur Gravitation bei großen offenen Maßstäben und O(N)-Gruppen bei kleinen geschlossenen Maßstäben haben . Der euklidische Raum, den wir im Allgemeinen auf Zwischenskalen zwischen diesen beiden Extremen beobachten, hat sehr einfache und einzigartige symmetrische Eigenschaften (Rotation, Translation, Inversionsinvarianz), von denen man erwarten könnte, dass sie auf natürliche Weise aus jeder statistischen Konstruktion aller möglichen Räume hervorgehen, ähnlich wie bei Feynman viele Pfade zusammenlaufen das Prinzip der kleinsten Wirkung. In sehr großen Maßstäben Es gibt jedoch definitiv dimensionale (und wahrscheinlich topologische) Einschränkungen für die Wahrnehmung eines solchen statistischen Raums, die die Einführung von Asymmetrien (und damit Krümmungen) erfordern würden. Wir können zum Beispiel einen Beobachter, der nur endliche Mengen an Informationen über seinen Raum über die Zeit sammeln kann, als Irrläufer annähern, der pro Zeiteinheit einen Raumpunkt auf einem Raumgitter beobachten kann. Es ist eine wohlbekannte Tatsache, dass der Beobachter auf einem unendlichen Gitter, das höher als zwei Dimensionen ist, trotz einer unendlichen Beobachtungszeit nur endlich viele Male zu einem beliebigen Punkt oder Übergang zurückkehren/beobachten würde und daher nicht in der Lage wäre, die Metrik statistisch zu bestimmen eines solchen Raumes! Für im Allgemeinen endliche (und damit geschlossene und kleine) Räume ist dies jedoch kein Problem,


Es ist vielleicht auch ein aufschlussreicher Anthropomorphismus, dass wir offene 2D-Räume auf zwei verschiedene Arten wahrnehmen, als eine 2D-Bildschirm-ähnliche Projektion vor uns oder als eine lineare horizontähnliche Projektion mal einer radialen Entfernung auf der Oberfläche eines Gravitationskörpers. Letzteres ist viel weniger direkt und die Linearität oder deren Fehlen scheint begrenzt und durch die Schwerkraft kontrolliert zu sein, die auf der Oberfläche eines Schwarzen Lochs, wo der Beobachter und seine Realität vollständig abgeflacht sind, ein Absolutes erreicht. Wenn es eine kontinuierliche/glatte Verbindung zwischen den beiden gäbe, könnte dies eine neue Dualität bilden.

Bitte versuchen Sie, nicht so viele kleine Änderungen vorzunehmen. Jedes Mal, wenn Sie es bearbeiten, wird die Frage an den Anfang der Titelseite verschoben und von anderen verdienten Fragen abgelenkt. Speichern Sie die Bearbeitung, wenn Sie etwas Größeres zu reparieren haben.