Das Standardmodell der Teilchenphysik ist immens erfolgreich. Es hat jedoch viele experimentell angepasste Eingabeparameter (z. B. die Fermionenmassen, Mischungswinkel usw.). Wie ernst können wir den Erfolg des Standardmodells nehmen, wenn es so viele Eingabeparameter hat?
Wenn ein Modell viele Eingabeparameter hat, kann es auf den Nennwert eine große Datenmenge aufnehmen. Gibt es qualitative und vor allem quantitative Vorhersagen des Standardmodells, die von diesen experimentell angepassten Parametern unabhängig sind? Auch hier zweifle ich nicht am Erfolg des SM, aber dies ist ein Anliegen, das ich gerne ansprechen und entmystifizieren möchte.
Es ist falsch zu glauben, dass das gesamte Standardmodell der Teilchenphysik durch Experimente bestimmt wurde. Das ist alles andere als wahr. Meistens wurden die theoretischen Vorhersagen der Teilchenphysik später experimentell bestätigt und nicht selten mit sehr hoher Genauigkeit.
Beispielsweise sagten theoretische Physiker die Existenz der Und Bosonen und ihre Massen, das Higgs-Boson, die Existenz von Gluonen und viele ihrer Eigenschaften, bevor diese Teilchen überhaupt entdeckt wurden. Pauli postulierte die Existenz des Neutrinos, um die Energieerhaltung beim Beta-Zerfall zu erklären, bevor das Neutrino beobachtet wurde. Das anomale magnetische Moment des Elektrons, dessen Wert von Julian Schwinger vorhergesagt wurde, stimmt bis zu 3 Teilen mit dem Experiment überein . Die von Lee und Yang vorhergesagte Paritätsverletzung in der schwachen Wechselwirkung wurde später experimentell bestätigt. Die Vorhersage des Positrons von Dirac wurde vier Jahre später von Anderson entdeckt.
Die Liste geht weiter und die Liste ist riesig . Die Teilchenphysik ist wohl die erfolgreichste physikalische Theorie, weil ihre Vorhersagen später immer wieder durch Experimente mit überraschend hoher Genauigkeit bestätigt wurden (obwohl unsere Theorien manchmal verbessert werden mussten, um einige Details experimenteller Daten zu erklären). Ich mag voreingenommen sein, da ich einen theoretischen Hintergrund in der Teilchenphysik habe, aber ich habe immer zugestimmt, dass das Standardmodell das mathematisch schönste, tiefste und profundeste Modell der gesamten Physik ist. Dies spiegelt sich in seiner fast wundersam genauen Vorhersagekraft wider.
Einige weitere Highlights:
1935 schlug Hideki Yukawa die starke Kraft vor, um Wechselwirkungen zwischen Nukleonen zu erklären .
1947 Hans Bethe verwendet erstmals die Renormierung.
1960 Yoichiro Nambu schlägt SSB (Chiral Symmetry Breaking) in der starken Wechselwirkung vor.
1964 Peter Higgs und Francois Englert schlagen den Higgs-Mechanismus vor.
1964 legten Murray Gell-Mann und George Zweig die Grundlage des Quark-Modells vor.
1967 Steven Weinberg und Abdus Salam schlagen die elektroschwache Wechselwirkung/Vereinigung vor.
Das Standardmodell kann viele Parameter haben, aber es spricht auch über viele Dinge, von denen jedes normalerweise nur eine sehr begrenzte Anzahl von Parametern beinhaltet. Zum Beispiel die Myonenlebensdauer
Ich bin mir sicher, dass jemand gegen meine Formel Einspruch erheben wird hat eine Zeit auf der linken Seite und eine inverse Masse auf der rechten Seite, verwendet natürliche Einheiten und sollte lauten
Der LHC hat bis heute 2.852 Veröffentlichungen erstellt: 24. September 2021. Nehmen wir an, jede Veröffentlichung hat 5 Plots. Jeder Plot hat 50 Punkte. Wir runden das auf 1.000.000 Datenpunkte auf, zusammen mit einem Vergleich zur Theorie.
Welcher Bruchteil der Teilchenphysikdaten ist der LHC? 1%? Ich weiß nicht. Die Teilchenphysik begann 1908 mit der von Rutherford Experiment. Nehmen wir an, LHC macht 0,1 % aller Daten aus.
Das bedeutet 1 Milliarde Datenpunkte erklärt mit freie Parameter. Ich erinnere mich , aber vielleicht hat es sich geändert. Wikipedia sagen . Ich weiß es nicht.
In jedem Fall ist die Datenmenge über Größenordnungen der Energie, die alle bekannten Formen von Materie umfasst, in EM-, schwachen und starken Sektoren, die durch so wenige Parameter erklärt werden, außergewöhnlich.
Trotz dunkler Dinge .
Die Frage ist letztlich nicht die der Physik, sondern der Statistik. Aus gutem Grund bleibt die Teilchenphysik eines der wenigen Gebiete der Physik, in denen Statistik noch auf fortgeschrittenem Niveau praktiziert wird (in vielen anderen Gebieten reduzierte die hohe Genauigkeit der Messungen die Notwendigkeit der statistischen Analyse auf die Berechnung von Standardabweichungen). Insbesondere das Statistikkapitel in PRD ist ein ausgezeichneter Crashkurs über statistische Analysen.
Wie viele Parameter sind viele?
In der Physik sind wir an Modelle gewöhnt, bei denen die Anzahl der Parameter an unseren Fingern gezählt werden kann, weil wir darauf abzielen, die elementaren Wechselwirkungen/Prozesse/etc. zu verstehen. Die Beschreibung von Phänomenen der realen Welt führt zwangsläufig dazu, viele Elemente zu kombinieren und mehr Parameter zu verwenden. Die Modelle, die in der Technik verwendet werden, zB um Flugzeuge zu entwerfen, oder in der Regierungsplanung enthalten Hunderte oder Tausende von Parametern. Das hohe Versprechen des maschinellen Lernens ist auf die moderne Rechenfähigkeit zurückzuführen, Modelle mit Millionen von Parametern zu verwenden, die oft (für den Menschen) eine sehr obskure Bedeutung haben – aber sie funktionieren immer noch sehr gut, wie wir durch das Markieren von Fotos auf Facebook oder die wachsende Qualität von Google sehen übersetzen.
Wie viele Daten?
Ob wir zu viele Parameter haben, hängt davon ab, wie viele Daten wir haben. Die Faustregel besagt, dass wir mehr Datenpunkte als Parameter haben. Prinzipiellere Ansätze basieren jedoch auf der Wahrscheinlichkeit , die die Wahrscheinlichkeit ist, Daten zu beobachten, angesichts unserer Parameterwerte:
Nun, wenn unser Modell gut ist, wird die Wahrscheinlichkeit zunehmen, wenn wir die Datenmenge (die Anzahl der Datenpunkte) erhöhen – obwohl diese Zunahme aufgrund der zufälligen Effekte nicht streng monoton ist. Geschieht dies nicht, ist unser Modell nicht gut – vielleicht ist es zu simpel, hat zu wenige Parameter – das nennt man Underfitting .
Modelle vergleichen
Angesichts einer Fülle von Daten führt das Modell mit mehr Parametern im Allgemeinen zu einer höheren Wahrscheinlichkeit – hier liegt das im OP angesprochene Problem. Lassen Sie mich am Rande anmerken, dass wir ein Modell für sich genommen nie beweisen oder widerlegen können – vielmehr vergleichen wir verschiedene Modelle und wählen ein besseres aus. Ein Modell mit mehr Parametern kann einfach besser sein, weil es die physikalische Realität besser abbildet. Aber ein solches Modell kann zu einer höheren Wahrscheinlichkeit führen, einfach weil wir mehr Parameter abzustimmen haben – das nennen wir Overfitting .
Es wurden Verfahren zum Korrigieren der Anzahl von Parametern beim Korrigieren des Modells entwickelt. Eines der bekanntesten ist das Akaike-Informationskriterium (AIC), bei dem Mengen verglichen werden
Wo ist die Anzahl der Parameter eines Modells . Das Modell mit dem niedrigsten AIC-Wert wird dann als dasjenige angesehen, das mit der geringsten Anzahl von Parametern die besten Ergebnisse erzielt.
Damit dieses einfache Kriterium nicht zu intuitiv erscheint, möchte ich darauf hinweisen, dass es einiges an Mathematik erfordert, um es rigoros zu rechtfertigen. Es gibt auch ausgefeiltere Versionen sowie alternative Kriterien, wie das Bayes'sche Informationskriterium (where wird durch seinen Logarithmus ersetzt).
So geht die Wahl des besten Modells auf den Punkt. Die Physik kommt bei der Formulierung der logisch motivierten Modelle zur Auswahl. Ich vermute, wenn wir uns die Veröffentlichungen in der Zeit ansehen, in der das Standardmodell formuliert wurde, gab es einige alternative Vorschläge, und wahrscheinlich wurden noch mehr in Diskussionen unter den Wissenschaftlern gebracht. Das Schöne an der Physik ist jedoch, dass sie es ermöglicht, die Auswahl an Modellen erheblich einzuschränken – als Alternative zu Ansätzen des maschinellen Lernens, bei denen alle möglichen Modelle gleich sind und die Auswahl ausschließlich auf ihrer Kompatibilität mit den Daten basiert.
Wenn Sie haben Eingabeparameter in einer deterministischen Theorie können Sie höchstens perfekt anpassen Datenpunkte, indem Sie einfach diese Parameter anpassen. In einer probabalistischen Theorie, die subtiler ist, gibt es jedoch eine ähnliche Assoziation. Unabhängig davon, wie viele Parameter das Standardmodell benötigt, ist es viel weniger als nötig wäre, um die 1 Petabyte an Daten aufzunehmen, die am LHC pro Sekunde gesammelt werden.
Wir sollten das Standardmodell ernst nehmen, weil es eine hervorragende Vorhersagekraft hat
Ich habe das Gefühl, dass die Konzentration auf die vielen manuell eingegebenen Parameter im Standardmodell den Wald vor lauter Bäumen vermisst. Naturgesetze müssen nicht unseren Vorstellungen davon entsprechen, wie eine Theorie aussehen sollte. Der ultimative Schiedsrichter für die Theorie ist, ob sie überprüfbare Vorhersagen macht. Da das Standardmodell so gut darin ist, sollten wir es ernst nehmen.
30 ungerade Parameter sind nicht viel im Vergleich zu 30.000 oder sogar 30 Millionen. Natürlich möchten Physiker die Anzahl der Parameter auf einen oder gar keinen reduzieren. Wir können es jedoch aufgrund seines experimentellen Erfolgs ernst nehmen. Eine mathematisch elegantere Herleitung des Standardmodells geht über nichtkommutative Geometrie. Dies erzeugt das vollständige Modell einschließlich der Neutrinomischung auf natürlich geometrische Weise – selbst wenn es nicht kommutativ ist.
Rohr
anna v
Barmar
Mitchell Porter
Lodinn
Tom
Tom
Eric Türme