QCD und QED mit unbegrenzter Rechenleistung – wie genau werden sie sein?

Meine Frage bezieht sich auf Quantenalgorithmen für QED-Berechnungen (Quantenelektrodynamik) in Bezug auf die Feinstrukturkonstanten. Solche Berechnungen laufen (wie mir erklärt) auf die Berechnung von Taylor-ähnlichen Reihen hinaus

c k a k ,
wo a ist die Feinstrukturkonstante (etwa 1/137) und c k ist der Beitrag von Feynman-Diagrammen mit k -Schleifen.

Diese Frage wurde durch den Kommentar von Peter Shor (über QED und die Feinstrukturkonstante) in einer Diskussion über Quantencomputer in meinem Blog motiviert. Für etwas Hintergrund ist hier ein relevanter Wikipedia-Artikel .

Es ist bekannt, dass die ersten paar Terme dieser Berechnung sehr genaue Abschätzungen für Beziehungen zwischen experimentellen Ergebnissen liefern, die in ausgezeichneter Übereinstimmung mit Experimenten stehen. (Vielleicht sogar die beste Übereinstimmung zwischen Theorie und Experiment in der Geschichte der Physik.)

Die Genauigkeit dieser Berechnungen wird jedoch durch drei wichtige (und verwandte) Faktoren begrenzt

a) Rechnerisch – die Berechnungen sind sehr aufwendig und die Berechnung weiterer Terme übersteigt unsere Rechenleistung.

b) Mathematisch-physikalisch - irgendwann explodiert die Rechnung - mit anderen Worten, der Konvergenzradius dieser Potenzreihe ist 0.

c) Physikalisch – Die Genauigkeit der Berechnung ist begrenzt, da andere Kräfte und Felder nicht berücksichtigt werden

Meine Frage lautet kurz: Wie viel bessere Ergebnisse könnten wir von diesen QED-Berechnungen erwarten, wenn wir eine unbegrenzte Rechenleistung hätten.

Im Detail:

Frage 1: Was ist die erwartete Genauigkeit, die wir bei unbegrenzter Rechenleistung erreichen können, wenn wir nur die Vergrößerung der Koeffizienten berücksichtigen? Gibt es nämlich Schätzungen dafür, wie viele Terme in der Erweiterung vorhanden sind, bevor wir Zeuge einer Explosion werden, und welche Qualität der Annäherung wir erwarten können, wenn wir diese Terme verwenden?

Update: Wie Vladimir in einem Kommentar feststellte (und tatsächlich auch Steven schrieb), wird angenommen, dass der Konvergenzradius Null ist, aber es gibt kein vollständiges Argument dafür, dass dies der Fall ist.

Steven Jordan erwähnte in einer Antwort auf eine verwandte Frage (siehe unten) eine sehr grobe heuristische Erklärung dafür c k benimmt sich wie k ! und dass daher die Explosion der Koeffizienten erst eintreten wird k ! 1 / 137 k beginnt zuzunehmen. Dies deutet darauf hin, dass wir etwa 137 bedeutungsvolle Begriffe haben können. (Wenn c k Konten zu k ! Bedingungen mit Stornierung können wir vielleicht ersetzen k ! durch seine Quadratwurzel.)

Eine zweite verwandte Frage lautet:

Frage 2: Was ist die erwartete Genauigkeit, die wir bei unbegrenzter Rechenleistung erreichen können, wenn wir die Wirkung anderer Felder berücksichtigen, die nicht von der QED berücksichtigt werden?

Mich interessiert auch, ob es effiziente Quantenalgorithmen gibt, um diese Expansion zu berechnen. Das Papier: Stephen Jordan, Keith Lee und John Preskill, Quantum Algorithms for Quantum Field Theories, kann zu effizienten Quantenalgorithmen für zumindest einige Versionen dieser Berechnungen führen. Ich habe diese Frage auf der Schwesterseite der theoretischen Informatik gestellt, auf die Stephen Jordan eine ausgezeichnete Antwort gegeben hat .

Die gleiche Frage kann zu QCD-Berechnungen für Eigenschaften des Protons oder Neutrons gestellt werden. Zum Beispiel Berechnung für die Masse des Protons.

Frage 3: Können wir für QCD-Berechnungen für die Masse des Protons abschätzen, welches Genauigkeitsniveau erreicht werden kann, vorausgesetzt, wir hätten unbegrenzte Rechenleistung, und wie es mit der aktuellen Genauigkeit verglichen wird.

Ich weiß nicht genug Quantenmechanik, um Ihnen eine wirkliche Antwort zu geben, aber als jemand, der jeden Tag mit Simulationen lebt, wäre mein Kommentar: "Alle Modelle sind falsch; einige sind nützlich."
Es ist allgemein bekannt, dass "der Konvergenzradius dieser Potenzreihe 0 ist", aber meiner bescheidenen Meinung nach ist dies eine falsche Aussage. Tatsächlich verwendet niemand diese Reihen wegen der Infrarotdivergenz direkt. Die IR-Divergenz wird vermieden, indem ein Teil der Reihe zu einer endlichen Funktion von summiert wird a , die Konvergenz der restlichen Reihen wurde also noch nicht untersucht! Diese endliche Funktion (Summe von IR-Diagrammen) ist eine Funktion, die nicht seriell entwickelt, sondern direkt verwendet wird. Es bedeutet, eine andere anfängliche Näherung für beispielsweise eine Streuamplitude zu verwenden. (Fortgesetzt werden.)
Fortsetzung: Das Argument von Dyson trifft nicht zu, da wir nicht verpflichtet sind zu erweitern, was wir genau in einer kompakten und endlichen Form haben können.
Sorry Wladimir, das wollte ich eigentlich auch fragen - ich korrigiere. Ich werde die Frage aktualisieren.
Irgendwann wird es nutzlos, die evaluierte QED allein zu verbessern, da die Beiträge der anderen Sektoren des Standardmodells größer sein werden als die Verbesserung aus der Berechnung. Ich denke, das ist bereits bei chiralen Beiträgen der elektroschwachen Kraft der Fall.
Neugierig, ja das ist meine Frage 2. Können wir quantitativ abschätzen, wofür "irgendwann" steht.
Basierend auf den Physikvorträgen, die ich vor 20 Jahren über elektroschwache Beiträge zur Atomphysik gehört habe, denke ich, dass dieser Punkt wahrscheinlich vor einem Vierteljahrhundert war, spätestens. :-)
Außerdem ist Lattice QCD ein Programm, um das QCD-Phänomen nicht-perturtabativ zu berechnen, ohne auf diese Reihe zurückzugreifen.

Antworten (2)

Teil b) ist ein großes Thema der mathematischen Physik für sich. Der divergente Schwanz einer asymptotischen Reihe ist kein Müll, sondern enthält viele Informationen, die zusammen mit einigen zusätzlichen Informationen verwendet werden können, um nicht-störende Effekte zu berechnen. Eine allgemeine Einführung in dieses Thema finden Sie hier .

Es sind verschiedene Herangehensweisen möglich, einige erfordern, dass viele Begriffe bekannt sind. In der Praxis ist dies für die Feldtheorie nicht sehr nützlich, da normalerweise nur wenige Begriffe bekannt sind, aber hier geht es um unbegrenzte Rechenleistung, und dann sind diese Techniken nützlich. ZB kann man erwägen, die Reihe unter Verwendung von differentiellen Näherungen fortzusetzen . Dies wurde verwendet, um genaue Werte für kritische Exponenten zu erhalten, erfordert jedoch normalerweise Dutzende von Termen einer (divergenten) Reihenentwicklung.

Bei der QCD ist die Rechenleistung der hauptsächliche begrenzende Faktor. Beispielsweise sind experimentelle Messungen der Protonenmasse etwa eine Million Mal genauer als die besten verfügbaren First-Principles-Berechnungen derselben Sache aus QCD.

Wenn wir mehr Rechenleistung hätten, könnten wir eine Vielzahl ziemlich präziser Messungen von Hadroneneigenschaften verwenden, um eine sehr genaue Bestimmung fundamentaler Konstanten wie der Konstante der starken Kraftkopplung und der Quarkmassen zu erhalten, und diese präzisen konstanten Messungen wiederum würden alles ausmachen sonst genauer auf Niveaus vergleichbar mit QED.

Stellen Sie sich ein Problem vor, das ein oder zwei Stunden dauern kann, um es mit einem Taschenrechner in QED mit exquisiter Genauigkeit zu lösen (für praktische Zwecke praktisch nur begrenzt durch die verfügbare Genauigkeit unserer Messungen der physikalischen Konstanten, die wir hineinstecken). Wenn Sie Berechnungen für ein vergleichbares Problem in QCD mit viel mehr Schleifen und buchstäblich jahrelanger Berechnung auf einigermaßen leistungsstarken Computern durchführen, werden Sie immer noch mit weit weniger Genauigkeit zurückbleiben als bei der QED-Berechnung.

Im Prinzip wäre die Genauigkeit, die Sie in QCD mit unbegrenzter Rechenleistung erreichen könnten, ungefähr so ​​​​genau wie die Genauigkeit der genauesten Protonen- und Neutronenmassenmessungen, die Sie verwalten könnten (derzeit etwa neun signifikante Stellen, anstatt drei von heutigen theoretischen Berechnungen). ). Sie können so präzise wie experimentelle Daten erhalten, um Ihre Ergebnisse zu kalibrieren, solange Sie über die Rechenleistung dafür verfügen. Es wäre ein zweistufiger Prozess, da derzeit begrenzte Genauigkeit bei QCD-Berechnungen ungenau bekannte physikalische Konstanten impliziert, die die Genauigkeit jeder Berechnung grundlegend einschränken. Sie müssten also zuerst Ihre unbegrenzte Rechenleistung aufwenden, um die relevanten Konstanten genauer zu bestimmen, und dann müssten Sie die Berechnungen mit den verfeinerten Konstanten durchführen.

Der Unterschied hat natürlich viel damit zu tun, wie schnell die Schleifen konvergieren. Fünf Schleifen wären für die meisten angewandten QED-Berechnungen zu viel des Guten, da Sie mehr Präzision erhalten, als Sie messen können. Aber mit fünf Schleifen in QCD erhalten Sie eine zwei- oder dreistellige Genauigkeit. Es würde wahrscheinlich Dutzende von QCD-Schleifen erfordern, um Berechnungen so präzise wie eine QED-Berechnung mit drei oder vier Schleifen zu erhalten, und es könnte Jahrzehnte dauern, mit aktuellen Rechenressourcen und -techniken in QCD zu berechnen.

Jetzt lauert da draußen die Frage, ob es einen wesentlich effizienteren Weg gibt, Amplituden zu berechnen, was Entwicklungen wie das Amplitudeeder (und viele andere suggestive Beweise) tendenziell implizieren, wenn wir einfach bessere Wege finden könnten, um die gegenseitige Aufhebung zu ignorieren Begriffe und Begriffe, die nicht wesentlich zum Endergebnis beitragen. Cleverness kann eine enorme Menge an rechnerischer Brute Force ausgleichen. Aber bisher haben wir keine heiligen Grale gefunden, die die Berechnung handhabbarer machen.

Andererseits sind QCD-Berechnungen eher austauschbare Teile, die häufig wiederkehren. Sie müssen Berechnungen für ein bestimmtes Problem nur einmal durchführen, und oft können diese Berechnungen eine erhebliche Modularität aufweisen (z. B. kann ein bestimmter Zerfallsverzweigungsbruch ein halbes Dutzend Mal bei der Berechnung aller möglichen Zerfallsmodi eines energetischen Jets auftauchen, hat es aber nur). einmal zu berechnen).