Higgs-Masse und das Hierarchieproblem

Ich habe mich gefragt, was die Meinung über die Bedeutung des Hierarchieproblems in der Hep-Community ist? Ich bin immer noch Student und verstehe nicht wirklich, warum diesem Thema so viel Aufmerksamkeit geschenkt wird.

1-Loop-Korrekturen zur Higgs-Masse divergieren - in der Cut-Off-Regularisierung proportional zu Λ 2 und erfordern daher eine große Feinabstimmung zwischen den Parametern, um diese Korrekturen klein zu machen. Aber diese Art von Problem taucht nicht in der dimensionalen Regularisierung auf.

Leute mögen den Wert von Λ sehr groß zu sein, mit dem Argument, dass es der gleichen Energieskala entsprechen sollte, bei der unsere Theorie zusammenbricht. Ich denke nicht, dass wir die Waage behandeln sollten Λ , als eine Art physikalischer Maßstab unseres Modell-Cutoffs, da es sich nur um einen Parameter zur Regularisierung des Integrals handelt. Genau wie die 4 + ϵ Dimension in der dimensionalen Regularisierung ist keine physikalische Sache. Warum wenden wir eine physikalische Bedeutung an Λ ? Ganz zu schweigen von den Problemen mit der Lorentz-Invarianz.

Vielleicht ist das Hierarchieproblem ein Argument dafür, dass das Cut-off-Regularisierungsschema einfach nicht richtig anzuwenden ist?

Antworten (2)

Ob Sie Ihre Berechnungen mit einer Cutoff-Regularisierung oder dimensionalen Regularisierung oder einer anderen Regularisierung durchführen, ist nur ein technisches Detail, das nichts mit der Existenz des Hierarchieproblems zu tun hat. Auftrag für Auftrag erhalten Sie die gleichen Ergebnisse, unabhängig von Ihrer gewählten Regularisierung oder Ihrem gewählten Schema.

Die Schemata und Algorithmen können sich durch den genauen Moment unterscheiden, in dem Sie einige unphysikalische unendliche Terme usw. subtrahieren. Tatsächlich heilt die dimensionale Regularisierung Potenzgesetzdivergenzen von Grund auf. Aber das Hierarchieproblem kann auf eine Weise ausgedrückt werden, die offensichtlich unabhängig von diesen Formalitäten ist.

Das Hierarchieproblem ist das Problem, dass man tatsächliche physikalische Parameter einer Theorie, die auf einer hohen Energieskala ausgedrückt wird, mit einer enormen Genauigkeit feinabstimmen muss – mit Fehlermargen kleiner als ( E l Ö w / E H ich G H ) k Wo k ist eine positive Kraft – damit diese hochenergetische Theorie überhaupt die niederenergetische Skala und Lichtobjekte hervorbringen kann.

Wenn ich das Problem so formuliere, ist klar, dass es egal ist, nach welchem ​​Schema man die Berechnungen durchführt. Insbesondere Ihre wundersame „Heilung“, die auf der dimensionalen Regularisierung basiert, kann das Explizite verbergen Λ 2 bei Zwischenergebnissen. An der Abhängigkeit von den hochenergetischen Parametern ändert das aber nichts.

Was Sie wirklich für eine "Heilung" des physikalischen Problems brauchen würden, ist vorzugeben, dass überhaupt keine Physik im Hochenergiemaßstab existiert. Aber es tut. Es ist klar, dass das Standardmodell bricht, bevor wir die Planck-Energie erreichen und wahrscheinlich weit davor. Es muss detailliertere physikalische Gesetze geben, die auf der GUT-Skala oder der Planck-Skala wirken, und diese neuen Gesetze haben neue Parameter.

Die niederenergetischen Parameter wie die vom LHC gemessene Higgs-Masse 125 GeV sind komplizierte Funktionen der grundlegenderen hochenergetischen Parameter, die die GUT-Skalen- oder Planck-Skalen-Theorie bestimmen. Und wenn Sie herausfinden, welche Bedingung für die High-Scale-Parameter erforderlich ist, um das Higgs zu machen 10 15 Mal leichter als die reduzierte Planck-Skala, werden Sie sehen, dass es sich um unnatürlich fein abgestimmte Bedingungen handelt, die erfordern, dass einige dimensionale Parameter in einigen präzisen Bereichen liegen.

Allgemeiner gesagt ist es sehr wichtig, echte physikalische Erkenntnisse und echte physikalische Probleme von einigen Artefakten zu unterscheiden, die von einem Formalismus abhängen. Ein verbreiteter Irrtum ist der Glaube einiger Leute, dass man das Problem der Nicht-Renormierbarkeit von Theorien wie der Gravitation heilt, wenn man den Raum diskretisiert, in ein Gitter, ein Spin-Netzwerk oder was auch immer umwandelt.

Aber das ist ein tiefes Missverständnis. Das eigentliche physikalische Problem, das sich unter dem Etikett „Nicht-Renormalisierbarkeit“ verbirgt, ist nicht das Aussehen des Symbols das ist nur ein Symbol, das man rational interpretieren sollte. Das wissen wir als solches ist es kein Problem, weil es am Ende auf die eine oder andere Weise subtrahiert wird; es ist unphysikalisch. Das physikalische Hauptproblem ist die Notwendigkeit, unendlich viele Kopplungskonstanten – Koeffizienten der Terme beliebig hoher Ordnung in der Lagrange-Funktion – anzugeben, um die Theorie eindeutig zu spezifizieren. Der Cutoff-Ansatz macht es deutlich, weil es viele Arten von Divergenzen gibt, die sich unterscheiden, und jeder dieser divergenten Ausdrücke als endliche Konstante "umbenannt" werden muss, wodurch auf dem Weg ein endlicher unspezifischer Parameter entsteht. Aber selbst wenn Sie Unendlichkeiten und divergierende Terme von Grund auf vermeiden, sind die unspezifizierten Parameter – die endlichen Reste der unendlichen Subtraktionen – immer noch da. Eine Theorie mit unendlich vielen Termen im Lagrange hat unendlich viele Daten, die gemessen werden müssen, bevor man etwas vorhersagen kann:

In ähnlicher Weise ist die für die Hochenergieparameter erforderliche Feinabstimmung ein Problem, da man unter Verwendung der Bayes'schen Inferenz argumentieren kann, dass es „höchst unwahrscheinlich“ sei, dass sich die Parameter so verschwören, dass die physikalischen Hochenergiegesetze gelten produzieren zB das leichte Higgs-Boson. Der Grad der Feinabstimmung (parametrisiert durch eine kleine Zahl) wird daher als eine kleine Wahrscheinlichkeit (gegeben durch die gleiche kleine Zahl) übersetzt, dass die ursprüngliche Theorie (eine Klasse von Theorien mit einigen Parametern) mit den Beobachtungen übereinstimmt.

Wenn diese Feinabstimmung angesagt ist 0,1 oder auch 0,01 , es ist wahrscheinlich in Ordnung. Physiker haben unterschiedliche Geschmäcker, welchen Grad an Feinabstimmung sie zu tolerieren bereit sind. Zum Beispiel haben viele Phänomenologen gedacht, dass sogar a 0,1 -Stil-Feinabstimmung ist ein Problem – das kleine Hierarchieproblem – das die Produktion von Hunderten von komplizierten Papieren rechtfertigt. Viele andere sind anderer Meinung, dass der Begriff "kleines Hierarchieproblem" überhaupt als real betrachtet werden sollte. Aber so ziemlich jeder, der den tatsächlichen "Informationsfluss" in Berechnungen der Quantenfeldtheorie sowie die grundlegende Bayes'sche Inferenz versteht, scheint zuzustimmen, dass die Feinabstimmung und das Hierarchieproblem ein Problem sind, wenn es zu schwerwiegend wird. Das Problem ist nicht unbedingt eine "Inkonsistenz", aber es bedeutet, dass es eine verbesserte Erklärung geben sollte, warum das Higgs so unnatürlich leicht ist. Die Rolle dieser Erklärung besteht darin, das naive Bayessche Maß – mit einer einheitlichen Wahrscheinlichkeitsverteilung für die Parameter – zu modifizieren, das die beobachtete Higgs-Masse sehr unwahrscheinlich erscheinen ließ.

Symmetrien wie die Supersymmetrie und neue Physik nahe der elektroschwachen Skala sind zwei wichtige Vertreter der Lösung des Hierarchieproblems. Sie eliminieren die enorme "Potenzgesetz"-Abhängigkeit von den Parametern, die die Hochenergietheorie beschreiben. Man muss noch erklären, warum die Parameter auf der Hochenergieskala so sind, dass die Higgs-Skala viel leichter ist als die GUT-Skala, aber die Menge an Feinabstimmung, die erforderlich ist, um so etwas zu erklären, kann nur "logarithmisch" sein, dh "eins in 15 ln 10 " wobei 15 der Logarithmus zur Basis zehn des Verhältnisses der Massenskalen ist. Und das ist natürlich eine enorme Verbesserung gegenüber der Feinabstimmung auf die Genauigkeit "1 in 1 Billiarde".

„Ein weit verbreitetes Missverständnis ist der Glaube einiger Leute, dass man das Problem der Nicht-Renormierbarkeit von Theorien wie der Gravitation heilt, wenn man den Raum diskretisiert, in ein Gitter, ein Spin-Netzwerk oder was auch immer umwandelt.“ Aber sobald Sie ein natürliches Gitter/Spin-Netzwerk/etc. und das ist eigentlich die grundlegende Theorie (und keine Feldtheorie mit unendlich vielen Parametern), dann können Sie Ihre beobachtbaren Werte berechnen und das Problem ist wirklich weg, oder?
Lubos – nur um den Anwalt des Teufels zu spielen – „Es ist klar, dass das Standardmodell bricht … Es muss detailliertere physikalische Gesetze geben, die auf der GUT-Skala oder der Planck-Skala funktionieren, und diese neuen Gesetze haben neue Parameter.“ Ich stimme zu, dass es sicherlich neue Physik und damit neue Massenparameter oberhalb der schwachen Skala gibt, aber ist es offensichtlich, dass dies die Higgs-Masse beeinflussen wird? Zum Beispiel könnte man sagen, dass irgendwann die Plankenmasse Probleme bereiten wird, aber dies erscheint naiverweise nur in umgekehrten Potenzen als 1 M P l (in der Störungstheorie), damit die Higgs-Masse nicht abgestimmt wird.
Lieber @Nick, es kann keine grundlegende Theorie zu einem Gitter oder einem anderen ähnlichen diskreten Hintergrund geben, das war wirklich mein Punkt. Sie können nichts berechnen, weil alle Koeffizienten der nicht renormierbaren Wechselwirkungen in der Kontinuumsgrenze einfach in unendlich viele Terme übersetzt werden, die Sie auf dem Gitter konstruieren können. Und diese Unkenntnis über die unendlich vielen Parameter ist das Problem, nicht die Frage, ob sie sich unter dem Vorzeichen verstecken . Daher kann kein wirkliches Problem jemals durch Diskretisierung der Raumzeit gelöst werden.
In der Quantenfeldtheorie ist die Skaleninvarianz die eigentliche Regel, die die unendlich vielen Parameter beseitigen kann. Wenn man verlangt, dass die Theorie in der Nahbereichsgrenze, dem ultimativen UV, skaleninvariant ist, und das gilt so ziemlich für fast alle konsistenten QFTs, bestimmt dies alle unendlich vielen Parameter bis zu einer endlichen Anzahl von ihnen. Dies ist die eigentliche Quelle des Wissens und der Beseitigung der unendlichen Unwissenheit und erfordert ein Kontinuum der Raumzeit, da Gitter nicht selbstähnlich sind und keine skaleninvarianten Theorien hervorbringen können.
Lieber @DJBunk, es ist trivial zu zeigen, dass die Higgs-Masse von so ziemlich allem auf der GUT- oder Planck-Skala stark beeinflusst wird, es sei denn, man kann zeigen, dass der Effekt aufgehoben wird. Dein 1 / M P l Koeffizienten erscheinen in diesem Fall vor nicht renormierbaren Wechselwirkungen, die durch die Physik auf der Planck-Skala induziert werden. Aber die Higgs-Masse ist keine nicht renormierbare Wechselwirkung. Ganz im Gegenteil, es ist ein relevanter Begriff, also mit positiver Massenkraft M H 2 H 2 / 2 wird durch Begriffe wie korrigiert M 2 H 2 usw. wo M ist von Ordnung die Planck-Masse; eine Korrektur der Planck-Skala-Physik sieht so aus: riesig.
@Luboš: Aber wenn wir eine Störungstheorie mit den Planken-induzierten nicht renormierbaren Wechselwirkungen machen (unterdrückt durch inverse Potenzen der Planck-Masse), haben dann nicht alle Terme in der effektiven Aktion für ein Skalarfeld einfach inverse Potenzen der Planck-Masse ? Woher kommen die positiven Kräfte der Planck-Masse? Sie scheinen nur aus den abgeleiteten Wechselwirkungen stammen zu können, die positive Potenzen des Cutoffs ergeben. Welche Begriffe sind Ihrer Meinung nach in der obigen Antwort nein nicht real? Danke, dass Sie mir geholfen haben, das aufzuklären.
Lieber @DJbunk, durch Dimensionsanalyse ist es sehr klar, dass Sie positive Kräfte der Planck-Masse vor sich haben H 2 . Ein Ausdruck wie Δ ( M 2 ) = C H 2 / M P l A N C k denn die Planck-Physik-Korrektur zur Higgs-Masse hat die Dimension der Masse, also ist es offensichtlich nicht die richtige Lagrange-Dichte, oder? Also, was ist die Massenskala, auf die Sie setzen? C um die richtigen Einheiten zu erhalten M 4 ? Es kann nur die Planck-Skala selbst sein, weil dort die Quelle der Korrektur liegt. Am Ende erhalten Sie eine positive Kraft.
Ob Sie sehen Λ 2 abweichende Begriffe - wo Λ ist ein Cutoff - wie echt, hängt von Ihrem Geschmack ab. Bei der dimensionalen Regularisierung können alle Potenzgesetz-Divergenzen auf Null gesetzt werden und nur die logarithmischen Divergenzen überleben. Aber im vorherigen Kommentar spreche ich nicht darüber Λ 2 im Zusammenhang mit einem Cutoff aber M P l A N C k 2 bezogen auf eine bestimmte Skala, die Planck-Skala, wo einige bestimmte Objekte und Wechselwirkungen existieren und beitragen. Dies sind verdammt reale Dinge und die Empfindlichkeit des Higgs auf diese Korrekturen ist enorm, unabhängig von der gewählten Regularisierung.

Mir ist nicht klar, ob Sie sich auf die physikalische Masse (Propagatorpol) oder auf die renormierte Masse (in einem bestimmten Renormierungsschema) beziehen, die überhaupt nichts Messbares sein muss.

Die physikalische Masse hängt nicht von der Energieskala ab, auf der Sie Ihre Experimente durchführen. Physikalische Koeffizienten interagierender Terme (die eigentlich Wahrscheinlichkeitsamplituden sind) hängen jedoch von der Energieskala ab, mit der Sie das Experiment durchführen, auch wenn dies klassischerweise nicht der Fall ist. Man spricht zum Beispiel nicht vom Wert der Elektronmasse bei 1 MeV oder bei 10 GeV, sondern vom Wert der Feinstrukturkonstante a bei 1 MeV oder bei 10 GeV. Rechts?

Nehmen wir also Lubos' Definition des Hierarchieproblems:

Das Hierarchieproblem ist das Problem, dass man die tatsächlichen physikalischen Parameter einer Theorie, die auf einer hohen Energieskala mit großer Genauigkeit ausgedrückt wird – mit Fehlermargen kleiner als (Elow/Ehigh)k, wobei k eine positive Potenz ist – der Reihe nach feinabstimmen muss dass diese Hochenergietheorie überhaupt die Niedrigenergieskala und Lichtobjekte hervorbringen kann.

Ich sehe nicht, an welchen "physikalischen Parametern" (Observables) man feinjustieren muss, weil meiner Meinung nach der Koeffizient des quadratischen Terms im Hamiltonian nicht die physikalische Masse ist (auch wenn man die Theorie a la Wilson und das sieht Koeffizient hängt von einer Energieskala ab Λ , es stellt keine physikalische Masse bei dieser Energie dar, im Gegensatz zu dem, was manche Leute denken müssen).

Vielleicht irre ich mich ... Warum?

Der Punkt ist, dass es auf der Welt Planck-Skalen gibt und der Koeffizient des quadratischen Terms fein abgestimmt werden muss, damit die physikalische Masse das ist, was sie ist. Es ist auch nicht auf einen speziellen Punkt abgestimmt. Ich verstehe die Verwirrung nicht - der Cutoff ist physikalisch, hier setzt die Schwerkraft ein, um die Integrale zu regulieren.
Danke schön. Ich weiß, dass der Koeffizient des quartischen Terms fein abgestimmt werden muss, um den Beitrag der Grenzskala (Planck-Energie oder GUT-Skala oder was auch immer) aufzuheben, sodass die physikalische Masse viel niedriger als die Grenzskala ist. Ich weiß auch, dass quartische Wechselwirkungen von Skalarfeldern zu quadratischen Abhängigkeiten von der Energieskala im Verlauf des Koeffizienten führen
Warum gibt es dann noch eine Frage?
Entschuldigung, ich bin neu hier und weiß nicht, wie ich diese Kommentare verwenden soll ... Lassen Sie mich mit meinem vorherigen Kommentar fortfahren: Mein Punkt ist, dass der Koeffizient des quadratischen Terms nicht physikalisch ist, weil es nicht die physikalische Masse ist. Daher sehe ich kein Problem in der Feinabstimmung eines Parameters, der nicht physikalisch ist. Ich würde jedoch ein Problem sehen, wenn man eine Observable feinabstimmen müsste, um den Beitrag der Cut-Off-Skala aufzuheben. Ist das klar? Ich denke, wir dürfen den Koeffizienten dieses Terms frei wählen. Danke schön.