Was sind die philosophischen Konsequenzen der Unentscheidbarkeit der spektralen Lücke in der Quantentheorie?

Ein gestern in Nature veröffentlichter Artikel beweist, dass das Auffinden der spektralen Lücke eines Materials auf der Grundlage einer vollständigen Beschreibung des Materials auf Quantenebene unentscheidbar ist (im Sinne von Turing).

Einer der Autoren wird zitiert : „Aus einer eher philosophischen Perspektive fordern sie auch den Standpunkt der Reduktionisten heraus, da die unüberwindbare Schwierigkeit gerade in der Ableitung makroskopischer Eigenschaften aus einer mikroskopischen Beschreibung liegt.“

  • Schließt dieses Ergebnis ein für alle Mal die Möglichkeit einer Theorie von allem aus, die auf fundamentaler Physik basiert?
  • Widerlegt dieses Ergebnis ein für alle Mal die reduktionistische Position?
  • Bestätigt dies ( siehe vorherige Frage ), dass Turings Ergebnis der Unentscheidbarkeit tatsächlich ein epistemisches Ergebnis ist und dass die Unentscheidbarkeit unserem Wissen über die Welt eine Grenze setzt?

Per Nirs Kommentar muss ich klarstellen, dass ich nicht um eine Diskussion der Gültigkeit des Papiers bitte (das ist eine Frage der Physik SE), sondern um die philosophischen Konsequenzen angesichts des Ergebnisses des Papiers

Ich habe die Frage positiv bewertet, da ich glaube, dass dieses Papier wichtig sein könnte, und ich verstehe Ihren Wunsch, dass wir es hier diskutieren, aber ich denke, Sie sollten Ihren Beitrag bearbeiten, da es keinen Sinn macht, dieser Community an dieser Stelle Fragen zu stellen das Formular "Ergibt dies ein für alle Mal <etwas>?" — Ich meine, wer in dieser Gemeinschaft kann das sagen? Das Papier besteht aus etwa 140 Seiten (wahrscheinlich) fortgeschrittener Physik – ist es ein Durchbruch? enthält sie einen wesentlichen fehler? Wer weiß? Die einzig vernünftige Antwort auf Ihre Frage ist "wir wissen es nicht".
Angenommen, das Papier ist wahrheitsgemäß, dann würde mich interessieren, ob es die Geburtsstunde der Hyper-Berechnung sein könnte.
Obwohl ein theoretisches Modell eines Quanten-Vielteilchensystems immer eine Idealisierung der realen Physik ist, sind die Modelle, die wir im Beweis von Theorem 1 konstruieren, höchst künstlich. Ob die Ergebnisse auf natürlichere Modelle ausgedehnt werden können, muss noch bestimmt werden . Ein damit zusammenhängender Punkt ist, dass wir die Unentscheidbarkeit der spektralen Lücke (und anderer Tieftemperatureigenschaften) für Hamiltonoperatoren mit einer ganz bestimmten Form beweisen. Wir wissen nicht, wie stabil die Ergebnisse gegenüber kleinen Abweichungen davon sind . Also nein, im Moment ist dies eine interessante, von der Realität losgelöste Mathematik.
@nir Meine Absicht ist keine Diskussion der Ergebnisse des Papiers an sich - sondern eher nach dem Motto: Was sind angesichts der Ergebnisse dieses Papiers die Konsequenzen? Dafür gehe ich davon aus, dass Leute, die mehr über Wissenschaftsphilosophie wissen als ich, auf Anhieb fundierte Antworten geben können, ohne in die Physik des Papiers selbst einzutauchen. Außerdem ist das Papier nur 4 Seiten lang (Naturpapiere sind nie zu lang).
Dann wäre es meiner Meinung nach besser, diejenigen von uns, die Physiker sind, einfach zu bitten, zu versuchen, die Ergebnisse in Laienbegriffen zu erklären, und sie zu warnen, Übertreibungen, Spekulationen und Unsinn zu vermeiden. Ich glaube, wir sprechen von diesem Papier Undecidability of the Spectral Gap
@nir Danke. Ich habe diese Version nicht gesehen, nur die in Nature veröffentlichte komprimierte Version.
Angesichts der extremen Titelwahl bin ich es leid, diese Frage zu beantworten. „Tod des Reduktionismus“ ist eine sehr starke Behauptung, wenn die Autoren sagen: „Die Idee, dass einige der schwierigsten offenen Probleme in der Physik mathematisch als ‚unmöglich zu lösen‘ bewiesen werden könnten, ist nicht neu.“ Unentscheidbarkeit anderer physikalischer Größen hat sich in Vielteilchensystemen für die viel einfacheren Fälle gezeigt ...“ legt nahe, dass nicht einmal die Autoren glauben, dass solche extremen Positionen gerechtfertigt sind. Ich denke, es gibt etwas philosophisches zu diesem Thema zu sagen, aber nichts so Starkes wie das.
@CortAmmon Der Titel meines Beitrags mag extrem erscheinen, aber die Art und Weise, wie er auf den verschiedenen Physics-Websites (und von Nature, die diese Art von Artikeln selten akzeptiert) angekündigt wird, lässt den Anschein erwecken, als wäre es eine große Sache. In gewisser Weise hätte mein Beitrag lauten sollen: "Ist das wirklich so eine große Sache, wie die Natur sagt, dass es ist?"

Antworten (3)

Das Ergebnis bedeutet im Wesentlichen, dass es in bestimmten Spielzeugmodellen keinen Algorithmus geben kann, der einige makroskopische Eigenschaften (spektrale Lücke) aus mikroskopischen Parametern der Modelle ableitet. Die wichtigste Bedeutung besteht darin, dass wir einen Gödel-Satz erhalten, der im Gegensatz zum Original eine explizite mathematische Bedeutung hat. Seien wir großzügig und gehen davon aus, dass sich die Situation auf realistischere Theorien der Materie erstreckt. Was sind die philosophischen Konsequenzen für den Reduktionismus?

Erstens ist die Existenz unentscheidbarer Sätze eine Eigenschaft einer Theorie, nicht eine Eigenschaft der Realität, die sie beschreibt, also sprechen wir nicht von ontologischem Reduktionismus, sondern von Theoriereduktionismus. Zweitens meinen die Autoren "unentscheidbar" in zwei verschiedenen Bedeutungen, ein Ergebnis besagt, dass es keinen Algorithmus zum Auffinden der spektralen Lücke in einer Klasse von Modellen gibt, das andere Ergebnis besagt, dass in einigen "künstlichen" Modellen die Existenz der Lücke auch nicht beweisbar ist auch nicht widerlegbar. Ersteres ist nicht gerade überraschend, die Ableitung makroskopischer Eigenschaften von Modellen ist selbst in der klassischen statistischen Mechanik höchst nicht trivial, obwohl dies möglicherweise der erste explizite Beweis dafür ist. Letzteres ist interessanter, aber Unentscheidbarkeit ist immer relativ. Der Gödelsatz der Arithmetik ist in der Standardmengentheorie (ZFC) beweisbar,

Und am Ende ist der Unterschied zwischen den beiden Sinnen ein technischer, beide bedeuten, dass die theoretische Analyse von Modellen nicht-triviale Einsichten erfordert, sei es die Verwendung bestehender Denkweisen auf nicht-triviale Weise oder die Entdeckung neuer. Aber das war historisch schon immer so, auch in der Arithmetik, Beweise interessanter zahlentheoretischer Ergebnisse, auch entscheidbarer, wurden nicht von einem Algorithmus gefunden. Matiyasevich hat sogar in den 1970er Jahren bewiesen, dass es keinen Algorithmus geben kann, um die Lösbarkeit diophantischer Gleichungen zu bestimmen. Dies bedeutet nicht, dass bestimmte diophantische Gleichungen nicht gelöst oder als unlösbar erwiesen werden können. Wiles hat letzteres kürzlich für Fermat-Gleichungen gemacht, und wir wissen immer noch nicht, ob Arithmetik allein für seinen Beweis ausreicht. Cubitt, einer der Autoren, sagt so viel: „Es ist möglich, dass bestimmte Fälle eines Problems lösbar sind, selbst wenn das allgemeine Problem unentscheidbar ist, sodass vielleicht doch jemand den begehrten Preis von 1 Million US-Dollar gewinnen kann .

Mathematiker haben eine Vorstellung von einem "wilden" Klassifikationsproblem , bei dem die Klassifikation bestimmter theoretischer Objekte im Prinzip unlösbar ist. Das Klassifizierungsproblem für Paare gewöhnlicher Matrizen ist bereits wild, es gibt keine überblickenden "jordanischen kanonischen Formen" für Paare. Cubitt impliziert, dass die Quelle der Unentscheidbarkeit in ihrem Fall ein weiteres wildes Problem ist: „ Der Grund, warum dieses Problem im Allgemeinen nicht gelöst werden kann, liegt darin, dass Modelle auf dieser Ebene ein extrem bizarres Verhalten zeigen, das im Wesentlichen jeden Versuch, sie zu analysieren, zunichte macht". Wenn also der theoretische Reduktionismus bedeuten sollte, dass man einen Algorithmus erhalten kann, um Eigenschaften auf hoher Ebene abgeleiteter Objekte aus Axiomen für grundlegende zu finden, dann war der Reduktionismus für eine Weile dem Untergang geweiht. Zusammenfassend lässt sich sagen, dass es keine Konsequenzen für den ontologischen Reduktionismus gibt, und Für den theoretischen Reduktionismus bestätigt das Papier, was wir immer vermutet haben: Die Reduzierung der High-Level-Theorie auf eine Low-Level-Theorie ist eine nicht triviale Angelegenheit.

BEARBEITEN: Ich habe bei Math Overflow eine Frage zur technischen Seite des Ergebnisses gestellt. Das Papier war ein Jahr lang auf arxiv und wird von Experten gut verstanden. Die Unentscheidbarkeit darin ist typisch, der Beweis basiert auf der Unentscheidbarkeit des Halteproblems für Turingmaschinen und ist analog zu Matiyasevichs Beweis für diophantische Gleichungen. Das bedeutet, dass wir in der Physik nicht eher auf unentscheidbare Hamiltonoperatoren stoßen als auf Gödelsätze in der Zahlentheorie. Insbesondere bleibt der Status des Jahrtausendproblems der spektralen Lücke für den Yang-Mills-Hamilton-Operator unberührt.

Hier finden Sie einige nützliche Ressourcen zu dieser Frage, um diese Antwort zu vervollständigen: scottaaronson.com/blog/?p=2586

Wenn sich herausstellt, dass ein Modell unentscheidbar ist, werden die Leute wissen, dass sie Modelle dieser Art vermeiden sollten. Es bleibt abzuwarten, wie groß die Klasse solcher Modelle ist (die längere Version des Papiers im arxiv umfasst über 150 Seiten). Aber es wäre verfrüht, den Tod des Reduktionismus anzukündigen, nur weil Fälle konstruiert wurden, die Gödels Befund veranschaulichen.

Also können wir Unterbestimmtheit tatsächlich zu unserem Vorteil nutzen? Wenn Ihre Theorie unentscheidbar ist, fürchten Sie sich nicht, Quine sagt, dass Sie immer eine andere finden können. Verstehe ich deinen Punkt richtig?
Ja. Ergänzend: einfache Modelle züchten Paradoxien zB Henne und Ei oder Schrödingers Katze; Das Nature-Abstract erwähnt ein Modell mit nächsten Nachbarn (die Mitte eines Quadrats interagiert nur mit Punkten in der Mitte, nicht mit Winkelpunkten). Dies ist der einfachste 2D-Fall. Das Prinzip von Huygen funktioniert nicht in 2D (aber in 3D (oder 1D)).

Es scheint ein weiterer Beweis dafür zu sein, dass der Indeterminismus in gewisser Weise eine grundlegende Rolle in der Physik spielt.

Wenn dem so ist, dann muss die Erklärungslast sicherlich darauf fallen, zu sagen, warum das so ist.

Das Grundrätsel in QM ist schließlich, dass der Vorgang der Messung indeterministisch ist und aufgrund der Bellschen Ungleichungen nicht stochastisch (dh abhängig von „verborgenen Variablen“); In gewissem Sinne fügt dieses Ergebnis also nichts Neues hinzu, sondern bestätigt lediglich dieses grundlegende Ergebnis.