Warum kümmern wir uns um die Renormierbarkeit im alten Stil mit Gegenbegriff?

Es gibt einige unterschiedliche Definitionen der Renormalisierbarkeit, die in Lehrbüchern der Quantenfeldtheorie Standard sind. Sie heißen alle gleich, aber ich erfinde Namen, um die Unterschiede klar zu machen.

  1. Eine Theorie ist Gegenbegriff-renormierbar , wenn alle ihre Divergenzen durch eine endliche Anzahl von Gegenbegriffen absorbiert werden können. Manche Leute nennen das perturbativ renormalisierbar .
  2. Eine Theorie ist oberflächlich renormierbar , wenn ihre Kopplungskonstanten alle eine nichtnegative Massendimension haben. Manche Leute nennen das perturbativ renormalisierbar .
  3. Eine Theorie ist nach Wilson renormalisierbar , wenn sie eine vernünftige UV-Grenze unter RG-Fluss hat. Manche Leute nennen dies nicht- perturbativ renormalisierbar .

Mein Eindruck ist, dass keines dieser Kriterien gleichwertig ist.

  • QED ist (1) und (2), aber nicht (3), wegen des Landau-Pols
  • Das Standardmodell ist offensichtlich (2), vielleicht (3), und wenn Leute sagen, dass das Standardmodell in den 70er Jahren nachweislich renormierbar war, meinen sie, dass es nachweislich (1) war.
  • Eine nicht-abelsche Eichtheorie, bei der die Eichsymmetrie explizit durch einen Massenterm gebrochen wird, ist (2) und (3), aber nicht (1), weil der Propagator nicht schnell genug abfällt, siehe hier
  • Jede Theorie, die (1) und (3) ist, kann nicht (2) sein, indem die Felder durch massive Konstanten neu skaliert werden, wie es in einigen Konventionen für Yang-Mills getan wird, siehe hier

Eine Menge Verwirrung in Kursen zur Quantenfeldtheorie entsteht durch die Verschmelzung dieser drei Begriffe, und in fast jedem Buch und jeder Vorlesungsunterlage werden alle drei austauschbar verwendet.


Ich füge das Obige nur als Hintergrund hinzu. Meine eigentliche Frage ist, warum interessiert sich überhaupt jemand für Kriterium (1)? Historisch gesehen war es eine große Sache, da das Standardmodell akzeptiert wurde, nachdem bewiesen wurde, dass es (1) ist, aber ich verstehe nicht, was (1) physikalisch bedeutet. Aus heutiger Sicht gibt es keine Divergenzen, weil jede Theorie einen Grenzwert hat, also spielt es keine Rolle, wie Sie sie aufheben würden, wenn sie da wären.

Trotzdem bleibt der Beweis der (1)-Renormierbarkeit des Standardmodells das Letzte in vielen Lehrbüchern und das letzte Wort in vielen Feldtheorie-/Teilchenphysikkursen. Warum ist das so?

Ob eine Theorie renormierbar war oder nicht, war früher ein nützlicher Anhaltspunkt dafür, wie ernst wir die Theorie nehmen sollten. Wären wir jemals bei QED oder dem Standardmodell angekommen, wenn die moderne Sichtweise in Mode gewesen wäre?
@LewisMiller Im Gegenteil, ich habe das Gefühl, wenn die Leute von Anfang an nur ein Wilsonsches Framework verwendet hätten, hätten sie alles schneller entdeckt. Es wäre sicherlich nicht langsamer, da Sie im Wesentlichen den gleichen Inhalt erhalten, ohne sich mit der Suche nach Gegenbegriffen verzetteln zu müssen n -Loop-Divergenzen.
Ich bin anderer Meinung, aber anstatt zu argumentieren, stelle ich einfach fest, dass meine Gedanken mit der Antwort von @rparwani übereinstimmen

Antworten (1)

(Ich habe einen Teil einer verwandten Frage beantwortet, die Sie an anderer Stelle gestellt haben . Hier ist der Rest.)

Erstens bin ich leider mit vielen Ihrer obigen Kommentare und den Schlussfolgerungen, die Sie daraus ziehen, nicht einverstanden.

Ich finde Ihre Einteilung der drei Typen verwirrend. Ich schlage vor, die Kategorien wegen meiner Kommentare unten wie folgt umzubenennen:

Kategorie A. Pertubativ renormierbar: Alle Divergenzen können durch Renormierung einer endlichen Anzahl von Parametern der Theorie absorbiert werden, während alle gewünschten Symmetrien beibehalten werden.

Kategorie B. Power Counting renormierbar: Der oberflächliche Grad der Divergenz von Graphen wird untersucht, um zu sehen, ob die Divergenzstruktur wahrscheinlich handhabbar ist. Wenn die Kopplungen alle eine positive Massendimension haben, besteht Hoffnung, dass die Theorie handhabbar ist und auch unter Kategorie A fallen könnte (aber das erfordert einen detaillierten Beweis).

Kategorie C. Wilson-Renormalisierung. Hier verwendet man einen Cutoff und untersucht den RG-Fluss der Theorie. Effektive Niedrigenergietheorien sind in der kondensierten Materie und auch in der Hochenergiephysik von Interesse.

Nun einige Kommentare, die Ihre Fragen ansprechen, und auch Kommentare zu einigen von Ihnen Kommentaren, denen ich nicht zustimme:

a. QED hat einen Landau-Pol in der Störungstheorie. Niemand weiß, was damit passiert, ohne dass Störungen auftreten. In der Tat, lange bevor Sie den Landau-Pol erreichen, bricht die Annäherung zusammen, die Sie verwendet haben, um diesen Pol zu erhalten.

b. Das Standardmodell der Teilchenphysik, das immer noch die am besten experimentell geprüfte Theorie der starken, schwachen und elektromagnetischen Wechselwirkungen ist, fällt unter die Kategorien A und B. Es kann auch unter Kategorie C studiert werden, wenn Sie möchten, und die Leute haben das getan, um es zu bekommen Niedrigenergie-Effektivtheorien für bestimmte Anwendungen (siehe unten).

c. Ich weiß nicht, was "nicht störend renormierbar" bedeuten könnte. Jede Erweiterung der Quantentheorie wird in einigen Parametern störend sein. Wenn nicht die Kupplung "g", das große N usw. (Es sei denn, Sie legen es auf ein Gitter und studieren es dort ... ich bin mir selbst dann nicht sicher).

d. Die physikalische Bedeutung von Kategorie A und warum es eine große Sache ist: Wenn eine Theorie in Kategorie A ist, dann ist sie in gewissem Sinne in sich abgeschlossen. Nachdem Sie eine endliche Anzahl von Parametern festgelegt haben, können Sie viele weitere Fragen mit beliebiger Genauigkeit beantworten. ZB stimmt das anomale magnetische Moment des Elektrons mit dem Experiment auf 10 signifikante Stellen überein. Viele viele Schleifen, die Kinoshita und Co. über Jahrzehnte berechnet haben. Es wurde als die am besten verifizierte Vorhersage in der Geschichte der Physik beschrieben. Also müssen wir hier etwas tun. Ich denke, wir müssen ein paar Sekunden innehalten, um diese Errungenschaft der Menschheit zu würdigen.

Weitermachen. Historisch gesehen war die Kategorie-A-Anforderung eines der entscheidenden Leitprinzipien bei der Konstruktion des Standardmodells (siehe Nobelpreisansprache von Weinberg). Die Theorie, die konstruiert wurde, sagte viele neue Teilchen voraus, die noch nicht beobachtet worden waren. Viele Nobelpreise wurden auf der Grundlage der wahr gewordenen Vorhersagen verliehen.

Es ist immer möglich, eine Theorie zu erfinden, um bekannte Tatsachen zu erklären, aber etwas vorherzusagen und es immer wieder wahr werden zu lassen, ist außergewöhnlich.

Also eine in sich geschlossene Vorhersagestruktur, die mit der Natur übereinstimmt. Darum geht es in der Kategorie A. Deshalb steht es in den Lehrbüchern.

Physikalisch bedeutet dies, dass Theorien der Kategorie A nicht empfindlich auf die unbekannte Physik bei der von Ihnen gewählten beliebig großen Grenze reagieren (die schließlich ins Unendliche geht) und deren Ignoranz teilweise in den Renormierungsparametern absorbiert wird. In diesem Sinne unterscheiden sich Theorien der Kategorie A physikalisch nicht von Untersuchungen der Kategorie C. Es ist nur so, dass die Leute in Kategorie A versucht haben, die Grenze auf unendlich zu schieben, und es ihnen gelungen ist.

Aber das Unternehmen hätte schlimm scheitern können, dann wäre es vergessen worden und wir hätten etwas anderes versucht (übrigens haben die Leute früher etwas anderes versucht, wie S-Matrix-Ansatz und Bootstrap, als sie in die dunkel ... Google es).

e. Die Tatsache, dass es funktioniert hat, sagt uns, dass jede neue Physik jenseits des Standardmodells eine viel höhere Energie hat als das, was wir zuvor erforscht haben. Der LHC versucht nun, die potenzielle neue Physik zu finden. Was mich zum nächsten Punkt führt.

f. Das Standardmodell ist wahrscheinlich nicht das Ende der Fahnenstange. Tatsächlich können Sie mit der modernen Perspektive, dass alle Theorien in gewissem Sinne effektive Theorien sind, sogar das Standardmodell, jetzt nicht renormalisierbare Terme hinzufügen, um mögliche Hochenergiephysik zu berücksichtigen, die wir noch nicht gesehen haben. Diese zusätzlichen Bedingungen, die Sie hinzufügen, sind durch den Erfolg dessen, was wir bereits gesehen haben, eingeschränkt. Weinbergs Buch und viele andere Stellen diskutieren dies. Bisher wurde am LHC keine neue Physik jenseits der vom Standardmodell vorhergesagten beobachtet (obwohl einige Leute denken, dass die geringe Masse der wahrscheinlichen Neutrinos ein Hinweis auf etwas jenseits des Horizonts sein könnte).

g. Die Wilsonsche Perspektive, dass alle Theorien wirksame Theorien sind, ist wunderbar. Schließlich können wir nicht behaupten zu wissen, was über das hinausgeht, was wir bisher gesehen haben. Sein Ansatz war in der Physik der kondensierten Materie äußerst erfolgreich, und wie ich oben erwähnt habe, wird er auch von vielen Teilchenphysikern übernommen. Aber anstatt "unsere höheren Freiheitsgrade zu integrieren", was technisch (der Top-Down-Ansatz) und in der Praxis schwierig ist (was ist Ihre oberste Theorie? Stringtheorie? etwas anderes?), Beginnen die meisten Leute unten (renormierbare Theorie) und füge nicht renormalisierbare Terme hinzu, wie ich oben erwähnt habe.

Zusammengefasst: Kategorie A ist die Krönung der Teilchenphysiker. Es bietet immer noch Anleitungen zur Konstruktion von Erweiterungen von Theorien der Teilchenphysik.

Kategorie C ist die moderne Sichtweise auf das, was Theorien sind. Aber wie ich oben sagte, steht es nicht im Widerspruch zu Kategorie A, die ein ehrgeiziges Programm war, das irgendwie erfolgreich war.

Es gibt einige Sprachunterschiede zwischen denen, die im Lager der Kategorie A sind, und denen, die im Lager der Kategorie C sind, aber ich glaube, dass es einfach eine Frage der Geschichte und der Bequemlichkeit ist.

Ich empfehle das Buch von Zinn Justin , das meiner Meinung nach alle Kategorien abdeckt: A, B und C. Es sind 1000 ungerade Seiten, mit allen Details ausgearbeitet, obwohl die Präsentation etwas knapp ist. (Ich habe es nicht gelesen, aber vor vielen Jahren durchgeblättert). Der Autor ist ein renommierter Praktiker auf dem Gebiet der Renormalisierung mit vielen originellen Beiträgen.

Siehe meine Antwort auf diese Frage ( physical.stackexchange.com/q/284368 ) für eine mögliche Bedeutung der nicht-perturbativen Renormierung.
@LewisMiller Danke! Ja, „nicht störend“ hat viele Konnotationen. In meinem obigen Beitrag wollte ich hervorheben, dass es sich (in jeder realistischen Situation) um ein Annäherungsschema handeln wird, auch wenn es sich nicht um eine Erweiterung einiger Parameter handelt. Wenn ich mich nicht irre, wird die von Ihnen verwendete Annäherung manchmal als "mittleres Feld" oder "selbstkonsistent" bezeichnet.
Mittleres Feld oder Selbstkonsistenz stellen normalerweise das Ergebnis vor der Berechnung des Vakuumpolarisationsbeitrags dar. Was ich gezeigt habe, war, dass das mittlere Feldergebnis auch mit den gleichen Gegentermen renormiert werden kann, die in einer Störungsexpansion verwendet werden. Der resultierende endliche Vakuumpolarisationsbeitrag war derselbe wie derjenige aus der Störungstheorie 1. Ordnung (1 Schleife), außer dass das Vorzeichen umgekehrt war.
staff.science.uu.nl/~hooft101/gthpub/GtH_Yukawa_06.pdf Erläutert die Schwierigkeiten bei der Verwendung von Grenzwerten in nicht-abelschen Kontinuums-Eichtheorien. Soweit ich weiß, wurden diese nicht gelöst.
Mir ist klar, dass dies viele Jahre später ist, aber ich denke, das ist eine sehr schöne Zusammenfassung. Ich bin mir jedoch nicht sicher, ob ich mit der Perspektive an Bord bin, dass alle Theorien in einigen Parametern störend sind. Selbst wenn es wahr ist – was mir nicht garantiert erscheint, da es tatsächlich einige Feldtheorien gibt, die keine bekannte Lagrange-Formulierung haben – sollte es meiner Meinung nach möglich sein, zu definieren, was mit Renormalisierung gemeint ist, ohne auf eine Störung zu verweisen Erweiterung. Ich glaube, dass dies mit der nicht-perturbativen Renormalisierungsgruppe erreicht werden kann.