Was bedeutet es, eine effektive Feldtheorie zu renormieren?

Dies bezieht sich auf Folie 19 dieses Vortrags

Wie immer in der Effektiven Feldtheorie wird die Theorie prädiktiv, wenn es mehr Observable als Parameter gibt

  • Kann man erklären, was das genau bedeutet? Vielleicht können Sie mich auf Beispiele oder Literatur verweisen, wo dies erklärt wird?

  • In diesem Fall scheint dies zu 2 Feldern zu führen ( δ Und v ) und daher 3 2-Punkt-Funktionen zu regularisieren, aber man scheint nur zwei Gegenterme zu haben. Wie ist das dann sinnvoll?

Bedeutet die zitierte Zeile nicht im Grunde, dass es eine sinnvolle Interpretation des Szenarios gibt, bei der mehr Korrelationen als Gegenbegriffe zu regularisieren sind? Was ist die Bedeutung?

Beim Bottom-up-Ansatz von EFT fügen Sie dem Lagrange-Operator eine Reihe von Operatoren hinzu, ohne ihre genauen (dimensionslosen) Koeffizienten zu kennen. Angenommen, Sie fügen hinzu N Bedingungen, dann müssen Sie diese eindeutig beheben N c-Nummern durch Abgleich mit Daten. Wenn Sie mehr als haben N Messungen, können Sie dann eine Vorhersage für die geben N + 1 st, N + 2 nd, ... Messungen.
@Vibert Die Verwirrung ist folgende - wie ich in dieser Theorie sagte, gibt es 3 2-Punkt-Funktionen, die reguliert werden müssen, aber es sind 2 Countertrms verfügbar. Jetzt wird der Wert des Gegenterms durch die Forderung bestimmt, die Pole der 2-Punkt-Funktionen aufzuheben. Wenn nun beide Gegenterme bestimmt werden, indem die Regelmäßigkeit von 1 oder 2 der Korrelationsfunktionen abgefragt wird, was passiert dann mit der 3. Korrelation? - es bleibt ungeregelt! Ich kann nicht vorhersagen, wenn nicht alle Korrelationsfunktionen regularisiert sind - richtig?
@Vilbert noch einmal lesen. Für den losen Term verwenden Sie echte Daten, um ihn zu beheben, indem Sie die Theorievorhersage an den Wert der Daten anpassen. Dann haben Sie eine Theorie, die weitere physikalische Ergebnisse vorhersagen könnte, die durch Daten überprüft werden müssen.
@anna v Was meinst du mit der "Theorievorhersage"? Die Theorievorhersage ist eine abweichende / schlecht definierte Korrelationsfunktion - ich würde denken, dass man zuerst Gegenbegriffe so wählen muss, dass die 1 / Epsilon-Pole aufgehoben werden, und dann kann man mit dem Experiment vergleichen. ABER wenn man mehr Korrelationen zu regularisieren hat als Gegenbegriffe, was ist dann die Interpretation? Will man damit sagen, dass man einen anderen Satz von Gegentermwerten wählen wird, um jede der Korrelationen zu regularisieren?
@anna v Ich würde denken, dass das Problem darin besteht, dass man nicht mit Experimenten vergleichen kann, es sei denn, man hat die Pole durch Gegenbegriffe aufgehoben. Aber wenn man mehr Korrelationen zu regularisieren hat als Counterms (was jeder effektiven Feldtheorie allgemein erscheint), was macht man dann? - Angenommen, Sie haben beide Gegenbegriffe zur Regularisierung erschöpft < A A > Und < B B > aber das garantiert es nicht < A B > wird jetzt regulär sein - also würde ich vermuten, dass man für jede Korrelation einen anderen Satz von Gegenbegriffen wählen muss, um sicherzustellen, dass jede regulär ist?
Ich hoffe, ein Theoretiker beantwortet Ihre Frage, da ich denke, dass, sobald Sie sich um die Pole gekümmert haben, die Korrelationen folgen, aber es ist nur eine Handbewegung.
Wenn ich mich nicht ganz irre kann man davon ausgehen A B = 0 . Warum? Nun, sammeln Sie alle bilinearen Terme ein A , B in der Lagrange-Funktion, so dass Sie eine Lagrange-Funktion der Form erhalten L = ϕ A K A B ϕ B +Terme höherer Ordnung, und hier ϕ = ( A , B ) . Anschließend definieren Sie die Felder A ' , B ' als Eigenvektoren von K . Es wäre dumm, eine Theorie mit nichtdiagonalen Zweipunktfunktionen (Propagatoren) zu quantisieren.
@Vibert Erstens ist die Theorie, die der Autor in den Folien beschreibt, eine klassische Feldtheorie, und man normalisiert das. Zweitens handelt es sich in dieser Theorie bei der Störung bereits um eine interagierende Lösung und daher < A B > Nicht-Null, um damit zu beginnen. Hier verwendet man eine Reihenlösung für eine interagierende Theorie und verwendet diese Reihenlösung, um die Korrelationen zu berechnen. Die Reihenlösung ist von einer interagierenden Theorie.
@Vibert Drittens kann das Problem sogar auf der Ebene von Just kommen < A A > ODER < B B > weil jeder dieser Korrelatoren in dieser Theorie Doppelpole haben kann - dann erschöpfen sich beide Gegenterme darin, eine der Korrelationen zu regularisieren, und daher bleibt der andere unphysikalisch. Daher mein Vorschlag, ob es sinnvoll ist, für jede Korrelation einen anderen Satz von Werten von Gegentermen zu wählen, um sie durch Aufheben ihrer Pole regulär zu machen.

Antworten (1)

Theorien wie QED, bei denen man eine endliche Anzahl relevanter Operatoren hat, sind sehr selten. Viele wichtige Vorhersagen werden mittels effektiver Theorien durchgeführt (siehe die folgenden Übersichten von: Aneesh V. Manohar und Scherer und Schindler ). Es wird manchmal gesagt, dass, da diese Theorien nicht renormierbar sind, jede Schleifenkorrektur über die Baumebene hinaus nicht nützlich ist, da wir tatsächlich eine unendliche Anzahl freier Parameter haben können, die die Theorie an alle Daten anpassen können, die wir haben.

Betrachten Sie jedoch zum Beispiel die Theorie der chiralen Störung, die die Freiheitsgrade von QCD mit niedriger Energie beschreibt (mit 3 Geschmacksrichtungen):

L = 1 4 F π 2 μ U μ U + . . .

( U S U ( 3 ) wird durch die Mesonfelder erzeugt). Hier führen Korrekturen in einer Schleife zu 8 Gegentermen, deren Koeffizienten aus verschiedenen Prozessen geschätzt werden können. Es gibt Hinweise auf eine Verbesserung der Genauigkeit in Bezug auf die Berechnung auf Baumebene.

Die verbesserten Vorhersagen können wie folgt erklärt werden: Auch wenn die Theorie nicht im üblichen Sinne renormierbar ist, aber wenn wir die Lagrange-Funktion auf Terme mit weniger als einer gegebenen Anzahl von Ableitungen und einer gegebenen Anzahl von Schleifen beschränken, dann gibt es a endlich viele Gegenbegriffe. Das oben genannte Beispiel entspricht Begriffen mit bis zu 4 Ableitungen. Dieselben Terme der Ordnung 4 dienen auch als Gegenterme, die benötigt werden, um den Ein-Schleifen-Beitrag der Terme mit bis zu 2 Ableitungen zu renormieren. Wenn wir uns also auf Niedrigenergieprozesse beschränken, brauchen wir nur eine endliche Anzahl von Gegentermen. Mit anderen Worten, bis zu einer bestimmten Energieskala haben wir die Kontrolle über die Gegenterme

Im Beispiel der chiralen Störungstheorie wissen wir, dass es sich um eine effektive Niedrigenergietheorie handelt, daher wissen wir, dass wir auf einer bestimmten Ebene der Anzahl der Ableitungen (oder Impulse) aufhören sollten.

Dieses Verfahren ist als ungefähre Renormierbarkeit bekannt, im Gegensatz zu der "exakten" Renormierbarkeit, die in QED vorhanden ist, wo jede Energieskala erreicht werden kann. Tatsächlich hat diese exakte Renormierbarkeit keinen großen praktischen Nutzen, da die QED selbst für sehr hohe Energien nicht gültig ist (andere Wechselwirkungen werden wichtig).

Da wir also bis zu einer gewissen Energieskala arbeiten wollen, können wir die effektive Feldtheorie als eine renormierbare Theorie behandeln und Schleifenerweiterungen durchführen, die Gegenterme ohne höhere Skala erzeugen.

Die Frage ist, wie können wir wissen, wo wir aufhören müssen. Die Antwort liegt in unserer Kenntnis der Freiheitsgrade außerhalb der Theorie. Beispielsweise gibt die Fermi-Theorie der schwachen Wechselwirkung (die einen effektiven Term mit vier Fermionen enthält) gute Vorhersagen für Beta-Zerfälle bis zu Energien in der Größenordnung der Masse des W -Boson, das in die Fermi-Theorie integriert ist.

Diese „Lockerung“ der Renormierbarkeitsanforderungen bedeutet nicht, dass uns unendlich viele effektive Theorien zur Verfügung stehen. Zusätzliche Strukturen sind erforderlich, um die Eigenschaft der ungefähren Renormierbarkeit zu erzeugen. Beispielsweise stammt die Theorie der chiralen Störung aus dem Ursprung von Pionen als Goldstone-Bosonen der chiralen Symmetriebrechung.

Ein Hauptfaktor, der die ungefähre Renormierbarkeit beeinträchtigen kann, sind Anomalien. Wenn wir versuchen, eine anomale Symmetrie abzuschätzen, verlieren wir die Kontrolle über die Anzahl der Ableitungen in den Gegenbegriffen. Wenn wir darüber hinaus nur anomaliefreie Untergruppen messen, dann sind die Gegenterme bis zu totalen Ableitungen in der Lagrange-Funktion eichinvariant, und wir haben Ward-Identitäten für jede Skala.

Es ist jetzt mehr als ein Jahr her, ich weiß, aber ich war nicht da, als du das gepostet hast. In Bezug auf diesen Satz „ wir können tatsächlich unendlich viele freie Parameter haben, die die Theorie an alle Daten anpassen können, die wir haben “, bin ich versucht zuzustimmen, denn typischerweise mit diesen eff. Lagrangians, manchmal beugen wir uns nach hinten, um Parameter anzupassen. Aber ich habe eine Frage, falls Sie versucht sind zu antworten. Angenommen, wir haben ein Modell, das auf LO Lagrange basiert, wobei die Parameter passen. Als nächstes gehen wir zu NLO oder vielleicht NNLO, natürlich würden wir zusätzliche Parameteranpassungen benötigen. Werden beide dieselbe Physik vorhersagen?
@ New_new_newbie Es kann vorkommen, dass einige Prozesse (wie Photon-Photon-Streuung in QED) auf der Baumebenen-Näherung nicht existieren, dann können Sie sagen, dass Strahlungskorrekturen neue Physik vorhersagen. Aber abgesehen davon ist die Kontrolle der Quantenkorrekturen hauptsächlich erforderlich, um sicherzustellen, dass diese Korrekturen die führende Ordnung nicht stören.
@DavidBarMosche - Nun, ich stimme dem zu, aber QED ist im Vergleich zu jedem eff immer noch vergleichsweise gut kontrolliert. Verzögerung. in der Niedrigenergie-QCD oder genauer gesagt in der Hadrodynamik. Wir können z. B. die chirale Invarianz verwenden, um eine LO-Verzögerung für Hadron-Hadron-Wechselwirkungen aufzuschreiben, und dann die freien Parameter an einige Einschränkungen anpassen. Jemand anderes kann zu NLO gehen und dann passen. Ich bin gespannt, ob wir uns überhaupt verbessern, wenn wir über LO hinausgehen, wenn man auf phänomenologische Anpassung zurückgreift, weil ich denke, dass ein solches Verfahren impliziert, dass beide Ls in der Lage sind, das zu reproduzieren, woran wir angepasst haben! (Fortsetzung)
(Forts.) Aber insgesamt erwarten wir, dass NLO reicher als LO ist, da es keinen Grund gibt, warum eine NLO-Vorhersage kleiner als LO sein sollte, anders als im QED-Fall. Selbst in der Phänomenologie sind die angepassten Parameter typischerweise größer als 1. Haben Sie irgendwelche Erkenntnisse darüber, was hier vor sich geht? (und danke für die antwort :))