Was zählt im BSM-Modellbau als fein abgestimmt?

Das Standardmodell enthält eine extreme Feinabstimmung: Die Higgs-Masse ist im Vergleich zu dem, was sie natürlich wäre, um einen Faktor von etwa sehr klein 10 15 . Viele Theorien, die das Standardmodell erweitern, zielen darauf ab, dieses Problem zu beseitigen.

Modellbauer sprechen manchmal davon, dass einzelne Modelle ganz unterschiedlich abgestimmt werden. Einige Leute sagen zum Beispiel, dass eine „1% Feinabstimmung“ es vorantreibt, und vielleicht eine „0,1% Feinabstimmung“ nicht akzeptabel ist. Dies dient dann als Kriterium für die Modellauswahl.

Ich sehe kein Problem mit einer so milden Feinabstimmung. Ist das Standardmodell auf dieser Ebene nicht schon „unnatürlich“, auch ohne sich Gedanken über die Higgs-Masse zu machen? Die Up-Quark-Masse beträgt ca 10 5 multipliziert mit der Top-Quark-Masse, so dass praktisch jede Erweiterung des Standardmodells notwendigerweise a enthält 10 5 Feinabstimmung allein dadurch. Was ist die große Sache an einem 1% Tuning obendrauf?

Antworten (3)

Es gibt einen Unterschied zwischen großen Hierarchien und Feinabstimmung .

Wir wissen nicht, wie die Werte der Konstanten des Standardmodells (oder seiner Erweiterungen) gesetzt werden. Stattdessen nehmen wir einen Prior an – ein vernünftiger ist, dass der Logarithmus der fraglichen Konstante gleichmäßig über einen bestimmten Bereich verteilt ist. Wenn wir davon ausgehen, dass die oberen und oberen Yukawas diese Verteilung haben, sagen wir von 10 10 Zu 1 , dann ist es nicht verwunderlich, dass es Ordnungshierarchien gibt 10 5 .

Wenn wir die Higgs-Masse und die Planck-Masse ähnlich verteilen, sagen wir von 1 e v Zu 10 30 e v , dann wäre es ebenfalls nicht verwunderlich, dass wir eine Ordnungshierarchie sehen 10 15 . Das Problem entsteht, weil wir davon ausgehen, dass diese Massen auf einen hohen Anfangsmaßstab eingestellt sind Λ (der Ordnung der Planck-Masse) – ihre Werte auf niedrigen Skalen werden durch Quantenkorrekturen modifiziert. Wenn es ein anderes Teilchen in der Natur gibt, das an das Higgs koppelt und eine Masse hat M Um die Planck-Masse zu bestellen, wird die Higgs-Masse korrigiert

M H 2 ( Λ ) M H 2 ( 0 ) M 2 ln ( Λ ) M P 2 .

Jetzt sehen wir ein Problem. Damit M H ( 0 ) klein sein, sagen wir weniger als 10 20 e v , benötigen wir M H ( Λ ) in etwa sein 10 12 e v mit einer Masse nahe der Planck-Masse, 10 28 e v . Nimmt man den Logarithmus von an M H ( Λ ) wie zuvor gleichmäßig verteilt werden, ist die Wahrscheinlichkeit dafür gering.

Dies ist das sogenannte elektroschwache Hierarchieproblem. Dies ist insofern ein Problem, als eine 1%ige Änderung der anfänglichen Higgs-Masse zu einer weitaus größeren beobachteten Higgs-Masse führen würde, die nicht annähernd der elektroschwachen Skala entspricht. Das ist mit einem Feinabstimmungsproblem gemeint : Eine kleine Änderung unserer ursprünglichen Theorie führt zu sehr unterschiedlichen oder nicht durchführbaren experimentellen Konsequenzen.

Wenn Leute über Tuning in BSM-Modellen sprechen, sprechen sie über etwas Ähnliches. Sie sagen nicht, dass das Modell einige Parameter enthält, die hundertmal größer sind als andere. Sie sagen, dass 1 % Änderungen an den Parametern des Modells zu etwas führen, das nicht praktikabel ist .

Okay, ich habe zwei Anschlussfragen! Die erste ist, wenn dies zutrifft, warum ist dann das Problem der starken CP ein Problem? Ist das nicht wie bei den Yukawa-Kupplungen? (dh beide Terme sind marginal)
Zweitens scheinen die Ergebnisse hier entscheidend davon abzuhängen, dass der Prior logarithmisch ist. Wenn ich stattdessen einen einheitlichen Prior hätte, würde das gleiche Argument den Up Yukawa inakzeptabel machen: Eine Änderung der dimensionslosen Kopplung um 0,01 (dh nicht 1%, sondern absolut 0,01) würde den Up schwerer machen als Λ QCD was nicht akzeptabel ist. Warum logarithmisch?
Haben Sie auch eine Referenz, in der die Weisheit der BSM-Modellerstellung niedergeschrieben ist?
3) Nein, tut mir leid. 2) Ein logarithmischer Prior wird durch die Tatsache nahegelegt, dass physikalische Konstanten im Allgemeinen dazu neigen, viele Größenordnungen zu überspannen, mit ungefähr gleich vielen pro Ordnung. Ein einheitlicher Prior würde zu einer massiven Unterdrückung kleiner Werte führen, was mir unangemessen erscheint. Alle Fragen der „Natürlichkeit“ sind letztlich Fragen dessen, was vernünftig oder einfach erscheint; Natürlichkeit sollte eher ein Leitfaden sein als etwas, das rigoros angewendet werden muss. 1) Das starke CP-Problem ist genau deshalb ein Problem, weil wir dazu neigen, einen einheitlichen Prior für anzunehmen θ , da es sich um eine Winkelvariable handelt.
@knzhou man kann in diesem Fall auch einen logarithmischen Prior mit dem Prinzip der maximalen Entropie begründen ( en.wikipedia.org/wiki/Principle_of_maximum_entropy )

Dies beantwortet Ihre Frage nicht genau, aber es ist erwähnenswert, dass es einen qualitativen Unterschied zwischen der Art und Weise gibt, wie die Higgs-Masse und der Art und Weise, wie viele BSM-Parameter "feinabgestimmt" werden, besteht.

Die Higgs-Masse ist in einer "natürlichen" Theorie der Quantengravitation nur "sehr klein im Vergleich zu dem, was sie natürlich wäre", dh sie ist winzig im Vergleich zur Planck-Skala. Rein innerhalb des Standardmodells (unter völliger Vernachlässigung der Schwerkraft) ist die Higgs-Masse überhaupt nicht fein abgestimmt - weil die Higgs-Masse die einzige istMassenskala im SM und liegt damit tautologisch in der Größenordnung der "natürlichen" Massenskala. (Genauer: Unter den theoretisch natürlichen Konventionen zur Definition der Kopplungskonstanten des SM ist jede einzelne Kopplungskonstante dimensionslos, mit Ausnahme des Higgs-Massenterms. Die Masse jedes anderen Teilchens ist durch diese Massenskala multipliziert mit einer dimensionslosen Konstante gegeben.) Also Wenn Sie damit einverstanden sind, die Schwerkraft zu ignorieren, gibt es dort kein Problem. Einige Leute stören sich nicht am Problem der Higgs-Hierarchie und seinen 15 Größenordnungen, weil sie die Philosophie vertreten, dass wir nicht wirklich wissen, wie die Quantengravitation funktioniert, also sollten wir nicht erwarten, dass wir naiv Gravitationsskalen damit kombinieren bekannte QFT würde sowieso vernünftige Ergebnisse liefern.

Ich bin kein Experte, aber ich verstehe, dass sich einige BSM-Modellbauer für die Schwerkraft interessieren, viele jedoch nicht. Ich denke, viele der Probleme mit der „Feinabstimmung“ in BSM-Theorien ähneln eher dem starken CP-Problem des Standardmodells θ Winkel innerhalb der experimentellen Genauigkeit null ist. In diesem Fall ist die Feinabstimmung bereits ein Problem, selbst wenn wir die Schwerkraft völlig ignorieren und nur in einem Flat-Space-QFT-Framework arbeiten. Einige Leute halten diese Art von "Feinabstimmungsproblemen", die keinen Bezug zur Planck-Skala haben, für problematischer, weil sie der Meinung sind, dass wir die gewöhnliche QFT im flachen Raum gut genug verstehen, dass sich diese Art von winzigen Parametern nicht einschleichen sollten überall. Deshalb finden sie eine Ö ( 10 3 ) Feinabstimmung in einer Nicht-Gravitationstheorie als beunruhigender als eine Ö ( 10 15 ) Feinabstimmung in einer Gravitationstheorie.

Ich persönlich stimme Ihnen zu, dass das Standardmodell selbst ziemlich eng abgestimmt zu sein scheint, daher ist es schwierig, BSM-Erweiterungen nur auf dieser Grundlage abzulehnen. Ich denke, die Leute verwenden es meistens nur als grobe Heuristik, weil niemand sich einen anderen Weg vorstellen kann, um die Unmengen möglicher BSM-Erweiterungen auf eine vernünftige Anzahl von Möglichkeiten zu reduzieren, die es wert sind, experimentell untersucht zu werden.

Ich stimme zu, dass ein Großteil der Literatur zum Thema Feinabstimmung verwirrend ist. Die logische Grundlage für die Feinabstimmung von Argumenten ist nicht klar, daher kann es schwierig sein, zuverlässige Schlussfolgerungen zu ziehen.

Im Wesentlichen würde ich jedoch sagen, dass fein abgestimmte Theorien relativ zu Theorien, die nicht fein abgestimmt sind, unplausibel sind. Dies folgt formal durch die Berücksichtigung der relativen Plausibilität von Modellen in der Bayes'schen Statistik. Obwohl es leicht tautologisch ist, können sich viele Theorien, die traditionell als fein abgestimmt angesehen werden, im Kontext der Bayes'schen Statistik tatsächlich als relativ unplausibel erweisen.

Damit ist deine Frage etwas beantwortet. Sie sollten darauf achten, wann Ihre Theorie verfeinert werden muss, um mit Daten übereinzustimmen, denn wenn Sie eine finden könnten, die dies nicht ist, wäre dies eine viel plausiblere Erklärung für die Daten.

Ich bin ein Fan von Bayes-Statistiken, aber es braucht eine vorherige Verteilung, und wie in einem Kommentar oben angegeben, hängen die Ergebnisse stark von der vorherigen ab! Kennen Sie eine kanonische Prior-Wahl?
Ich kann Regeln oder Prinzipien für Priors in einem Kommentar nicht angemessen ansprechen. Siehe zB Kass & Wasserman, Formal rules for priors