Ich habe mich gefragt, was die Meinung über die Bedeutung des Hierarchieproblems in der Hep-Community ist? Ich bin immer noch Student und verstehe nicht wirklich, warum diesem Thema so viel Aufmerksamkeit geschenkt wird.
1-Loop-Korrekturen zur Higgs-Masse divergieren - in der Cut-Off-Regularisierung proportional zu und erfordern daher eine große Feinabstimmung zwischen den Parametern, um diese Korrekturen klein zu machen. Aber diese Art von Problem taucht nicht in der dimensionalen Regularisierung auf.
Leute mögen den Wert von sehr groß zu sein, mit dem Argument, dass es der gleichen Energieskala entsprechen sollte, bei der unsere Theorie zusammenbricht. Ich denke nicht, dass wir die Waage behandeln sollten , als eine Art physikalischer Maßstab unseres Modell-Cutoffs, da es sich nur um einen Parameter zur Regularisierung des Integrals handelt. Genau wie die Dimension in der dimensionalen Regularisierung ist keine physikalische Sache. Warum wenden wir eine physikalische Bedeutung an ? Ganz zu schweigen von den Problemen mit der Lorentz-Invarianz.
Vielleicht ist das Hierarchieproblem ein Argument dafür, dass das Cut-off-Regularisierungsschema einfach nicht richtig anzuwenden ist?
Ob Sie Ihre Berechnungen mit einer Cutoff-Regularisierung oder dimensionalen Regularisierung oder einer anderen Regularisierung durchführen, ist nur ein technisches Detail, das nichts mit der Existenz des Hierarchieproblems zu tun hat. Auftrag für Auftrag erhalten Sie die gleichen Ergebnisse, unabhängig von Ihrer gewählten Regularisierung oder Ihrem gewählten Schema.
Die Schemata und Algorithmen können sich durch den genauen Moment unterscheiden, in dem Sie einige unphysikalische unendliche Terme usw. subtrahieren. Tatsächlich heilt die dimensionale Regularisierung Potenzgesetzdivergenzen von Grund auf. Aber das Hierarchieproblem kann auf eine Weise ausgedrückt werden, die offensichtlich unabhängig von diesen Formalitäten ist.
Das Hierarchieproblem ist das Problem, dass man tatsächliche physikalische Parameter einer Theorie, die auf einer hohen Energieskala ausgedrückt wird, mit einer enormen Genauigkeit feinabstimmen muss – mit Fehlermargen kleiner als Wo ist eine positive Kraft – damit diese hochenergetische Theorie überhaupt die niederenergetische Skala und Lichtobjekte hervorbringen kann.
Wenn ich das Problem so formuliere, ist klar, dass es egal ist, nach welchem Schema man die Berechnungen durchführt. Insbesondere Ihre wundersame „Heilung“, die auf der dimensionalen Regularisierung basiert, kann das Explizite verbergen bei Zwischenergebnissen. An der Abhängigkeit von den hochenergetischen Parametern ändert das aber nichts.
Was Sie wirklich für eine "Heilung" des physikalischen Problems brauchen würden, ist vorzugeben, dass überhaupt keine Physik im Hochenergiemaßstab existiert. Aber es tut. Es ist klar, dass das Standardmodell bricht, bevor wir die Planck-Energie erreichen und wahrscheinlich weit davor. Es muss detailliertere physikalische Gesetze geben, die auf der GUT-Skala oder der Planck-Skala wirken, und diese neuen Gesetze haben neue Parameter.
Die niederenergetischen Parameter wie die vom LHC gemessene Higgs-Masse 125 GeV sind komplizierte Funktionen der grundlegenderen hochenergetischen Parameter, die die GUT-Skalen- oder Planck-Skalen-Theorie bestimmen. Und wenn Sie herausfinden, welche Bedingung für die High-Scale-Parameter erforderlich ist, um das Higgs zu machen Mal leichter als die reduzierte Planck-Skala, werden Sie sehen, dass es sich um unnatürlich fein abgestimmte Bedingungen handelt, die erfordern, dass einige dimensionale Parameter in einigen präzisen Bereichen liegen.
Allgemeiner gesagt ist es sehr wichtig, echte physikalische Erkenntnisse und echte physikalische Probleme von einigen Artefakten zu unterscheiden, die von einem Formalismus abhängen. Ein verbreiteter Irrtum ist der Glaube einiger Leute, dass man das Problem der Nicht-Renormierbarkeit von Theorien wie der Gravitation heilt, wenn man den Raum diskretisiert, in ein Gitter, ein Spin-Netzwerk oder was auch immer umwandelt.
Aber das ist ein tiefes Missverständnis. Das eigentliche physikalische Problem, das sich unter dem Etikett „Nicht-Renormalisierbarkeit“ verbirgt, ist nicht das Aussehen des Symbols das ist nur ein Symbol, das man rational interpretieren sollte. Das wissen wir als solches ist es kein Problem, weil es am Ende auf die eine oder andere Weise subtrahiert wird; es ist unphysikalisch. Das physikalische Hauptproblem ist die Notwendigkeit, unendlich viele Kopplungskonstanten – Koeffizienten der Terme beliebig hoher Ordnung in der Lagrange-Funktion – anzugeben, um die Theorie eindeutig zu spezifizieren. Der Cutoff-Ansatz macht es deutlich, weil es viele Arten von Divergenzen gibt, die sich unterscheiden, und jeder dieser divergenten Ausdrücke als endliche Konstante "umbenannt" werden muss, wodurch auf dem Weg ein endlicher unspezifischer Parameter entsteht. Aber selbst wenn Sie Unendlichkeiten und divergierende Terme von Grund auf vermeiden, sind die unspezifizierten Parameter – die endlichen Reste der unendlichen Subtraktionen – immer noch da. Eine Theorie mit unendlich vielen Termen im Lagrange hat unendlich viele Daten, die gemessen werden müssen, bevor man etwas vorhersagen kann:
In ähnlicher Weise ist die für die Hochenergieparameter erforderliche Feinabstimmung ein Problem, da man unter Verwendung der Bayes'schen Inferenz argumentieren kann, dass es „höchst unwahrscheinlich“ sei, dass sich die Parameter so verschwören, dass die physikalischen Hochenergiegesetze gelten produzieren zB das leichte Higgs-Boson. Der Grad der Feinabstimmung (parametrisiert durch eine kleine Zahl) wird daher als eine kleine Wahrscheinlichkeit (gegeben durch die gleiche kleine Zahl) übersetzt, dass die ursprüngliche Theorie (eine Klasse von Theorien mit einigen Parametern) mit den Beobachtungen übereinstimmt.
Wenn diese Feinabstimmung angesagt ist oder auch , es ist wahrscheinlich in Ordnung. Physiker haben unterschiedliche Geschmäcker, welchen Grad an Feinabstimmung sie zu tolerieren bereit sind. Zum Beispiel haben viele Phänomenologen gedacht, dass sogar a -Stil-Feinabstimmung ist ein Problem – das kleine Hierarchieproblem – das die Produktion von Hunderten von komplizierten Papieren rechtfertigt. Viele andere sind anderer Meinung, dass der Begriff "kleines Hierarchieproblem" überhaupt als real betrachtet werden sollte. Aber so ziemlich jeder, der den tatsächlichen "Informationsfluss" in Berechnungen der Quantenfeldtheorie sowie die grundlegende Bayes'sche Inferenz versteht, scheint zuzustimmen, dass die Feinabstimmung und das Hierarchieproblem ein Problem sind, wenn es zu schwerwiegend wird. Das Problem ist nicht unbedingt eine "Inkonsistenz", aber es bedeutet, dass es eine verbesserte Erklärung geben sollte, warum das Higgs so unnatürlich leicht ist. Die Rolle dieser Erklärung besteht darin, das naive Bayessche Maß – mit einer einheitlichen Wahrscheinlichkeitsverteilung für die Parameter – zu modifizieren, das die beobachtete Higgs-Masse sehr unwahrscheinlich erscheinen ließ.
Symmetrien wie die Supersymmetrie und neue Physik nahe der elektroschwachen Skala sind zwei wichtige Vertreter der Lösung des Hierarchieproblems. Sie eliminieren die enorme "Potenzgesetz"-Abhängigkeit von den Parametern, die die Hochenergietheorie beschreiben. Man muss noch erklären, warum die Parameter auf der Hochenergieskala so sind, dass die Higgs-Skala viel leichter ist als die GUT-Skala, aber die Menge an Feinabstimmung, die erforderlich ist, um so etwas zu erklären, kann nur "logarithmisch" sein, dh "eins in " wobei 15 der Logarithmus zur Basis zehn des Verhältnisses der Massenskalen ist. Und das ist natürlich eine enorme Verbesserung gegenüber der Feinabstimmung auf die Genauigkeit "1 in 1 Billiarde".
Mir ist nicht klar, ob Sie sich auf die physikalische Masse (Propagatorpol) oder auf die renormierte Masse (in einem bestimmten Renormierungsschema) beziehen, die überhaupt nichts Messbares sein muss.
Die physikalische Masse hängt nicht von der Energieskala ab, auf der Sie Ihre Experimente durchführen. Physikalische Koeffizienten interagierender Terme (die eigentlich Wahrscheinlichkeitsamplituden sind) hängen jedoch von der Energieskala ab, mit der Sie das Experiment durchführen, auch wenn dies klassischerweise nicht der Fall ist. Man spricht zum Beispiel nicht vom Wert der Elektronmasse bei 1 MeV oder bei 10 GeV, sondern vom Wert der Feinstrukturkonstante bei 1 MeV oder bei 10 GeV. Rechts?
Nehmen wir also Lubos' Definition des Hierarchieproblems:
Das Hierarchieproblem ist das Problem, dass man die tatsächlichen physikalischen Parameter einer Theorie, die auf einer hohen Energieskala mit großer Genauigkeit ausgedrückt wird – mit Fehlermargen kleiner als (Elow/Ehigh)k, wobei k eine positive Potenz ist – der Reihe nach feinabstimmen muss dass diese Hochenergietheorie überhaupt die Niedrigenergieskala und Lichtobjekte hervorbringen kann.
Ich sehe nicht, an welchen "physikalischen Parametern" (Observables) man feinjustieren muss, weil meiner Meinung nach der Koeffizient des quadratischen Terms im Hamiltonian nicht die physikalische Masse ist (auch wenn man die Theorie a la Wilson und das sieht Koeffizient hängt von einer Energieskala ab , es stellt keine physikalische Masse bei dieser Energie dar, im Gegensatz zu dem, was manche Leute denken müssen).
Vielleicht irre ich mich ... Warum?
Nikolaj-K
DJBunk
Lubos Motl
Lubos Motl
Lubos Motl
DJBunk
Lubos Motl
Lubos Motl