Wie ernst können wir den Erfolg des Standardmodells nehmen, wenn es so viele Eingabeparameter hat?

Das Standardmodell der Teilchenphysik ist immens erfolgreich. Es hat jedoch viele experimentell angepasste Eingabeparameter (z. B. die Fermionenmassen, Mischungswinkel usw.). Wie ernst können wir den Erfolg des Standardmodells nehmen, wenn es so viele Eingabeparameter hat?

Wenn ein Modell viele Eingabeparameter hat, kann es auf den Nennwert eine große Datenmenge aufnehmen. Gibt es qualitative und vor allem quantitative Vorhersagen des Standardmodells, die von diesen experimentell angepassten Parametern unabhängig sind? Auch hier zweifle ich nicht am Erfolg des SM, aber dies ist ein Anliegen, das ich gerne ansprechen und entmystifizieren möchte.

Die Idee ist, eine Teilmenge bekannter Parameter zu verwenden, um die anderen vorherzusagen und sie dann mit Experimenten zu vergleichen, siehe zum Beispiel die elektroschwachen Präzisionstests
Vielleicht klärt diese meine Antwort die Verwendung von Konstanten, die aus Daten in Physiktheorien abgeleitet sind , auf
Ich denke, es ist immer noch eine offene Frage, wie viele dieser Parameter tatsächlich unabhängig sind. Eines der Ziele von „Theory of Everything“ ist es, sie zu reduzieren.
Die Anzahl der Parameter ergibt sich aus der Anzahl der Grundfelder. Sie haben drei Eichfelder mit jeweils eigener Kopplung, Sie haben ein Dutzend Fundamental-Fermionen mit jeweils eigener Masse usw. Glauben Sie, dass die Anzahl der Fundamentalfelder die Glaubwürdigkeit des Standardmodells in Frage stellt?
Wie viele quantitative Ergebnisse könnte man erzielen, ohne irgendwelche Konstanten experimentell anzupassen? Keiner. Die Anzahl der freien Parameter ist für SM problematisch, aber die Formulierung in der Frage ist zumindest für mich ziemlich seltsam. Wie ernst können Sie den Erfolg der Newtonschen Gravitation nehmen, wenn es 3 "experimentell angepasste Parameter" braucht, um die Beschleunigung des freien Falls an der Erdoberfläche zu bestimmen (und bedenken Sie auch, wie sie damals getestet wurde - und bis sie allgemein akzeptiert wurde!). Auch diese Konstanten verschwinden nicht einfach, wenn das Modell verfeinert wird: Sie werden stattdessen zu Strukturparametern ...
Hat kein mathematisches Modell Eingabeparameter, die irgendetwas mit einem gewissen Grad an Genauigkeit modellieren? Denken Sie an Lotka-Volterra oder versuchen Sie, ein anderes Phänomen, das in der Technik auftritt, mathematisch zu modellieren und eine gute quantitative Übereinstimmung zu erzielen. Es ist eher die Zahl, die im SM steht, die die Leute nicht mögen, als die Tatsache, dass es sie gibt. Nur die Tatsache, Parameter angepasst zu haben, ist meines Wissens nicht philosophisch beunruhigend (ich könnte mich irren).
Ich habe zum Beispiel einmal ein einfaches mathematisches Modell für den Verkehrsfluss in Kreisverkehren untersucht. ich benutzte 3 Eingabeparameter, warum sollte man also erwarten, dass es keine Eingabeparameter in einem Modell wie dem Standardmodell gibt, das viele unterschiedliche physikalische Phänomene mit einem sehr hohen Grad an Genauigkeit beschreibt?
Wie viele hundert Mesonen und Hadronen, die aus ein paar Dutzend Parametern vorhergesagt wurden, würden als "erfolgreich" gelten?

Antworten (7)

Es ist falsch zu glauben, dass das gesamte Standardmodell der Teilchenphysik durch Experimente bestimmt wurde. Das ist alles andere als wahr. Meistens wurden die theoretischen Vorhersagen der Teilchenphysik später experimentell bestätigt und nicht selten mit sehr hoher Genauigkeit.

Beispielsweise sagten theoretische Physiker die Existenz der W ± Und Z Bosonen und ihre Massen, das Higgs-Boson, die Existenz von Gluonen und viele ihrer Eigenschaften, bevor diese Teilchen überhaupt entdeckt wurden. Pauli postulierte die Existenz des Neutrinos, um die Energieerhaltung beim Beta-Zerfall zu erklären, bevor das Neutrino beobachtet wurde. Das anomale magnetische Moment des Elektrons, dessen Wert von Julian Schwinger vorhergesagt wurde, stimmt bis zu 3 Teilen mit dem Experiment überein 10 13 . Die von Lee und Yang vorhergesagte Paritätsverletzung in der schwachen Wechselwirkung wurde später experimentell bestätigt. Die Vorhersage des Positrons von Dirac wurde vier Jahre später von Anderson entdeckt.

Die Liste geht weiter und die Liste ist riesig 1 . Die Teilchenphysik ist wohl die erfolgreichste physikalische Theorie, weil ihre Vorhersagen später immer wieder durch Experimente mit überraschend hoher Genauigkeit bestätigt wurden (obwohl unsere Theorien manchmal verbessert werden mussten, um einige Details experimenteller Daten zu erklären). Ich mag voreingenommen sein, da ich einen theoretischen Hintergrund in der Teilchenphysik habe, aber ich habe immer zugestimmt, dass das Standardmodell das mathematisch schönste, tiefste und profundeste Modell der gesamten Physik ist. Dies spiegelt sich in seiner fast wundersam genauen Vorhersagekraft wider.


1 Einige weitere Highlights:
1935 schlug Hideki Yukawa die starke Kraft vor, um Wechselwirkungen zwischen Nukleonen zu erklären .
1947 Hans Bethe verwendet erstmals die Renormierung.
1960 Yoichiro Nambu schlägt SSB (Chiral Symmetry Breaking) in der starken Wechselwirkung vor.
1964 Peter Higgs und Francois Englert schlagen den Higgs-Mechanismus vor.
1964 legten Murray Gell-Mann und George Zweig die Grundlage des Quark-Modells vor.
1967 Steven Weinberg und Abdus Salam schlagen die elektroschwache Wechselwirkung/Vereinigung vor.


Es gibt eine Dialektik zwischen Experiment und Theorie. Die Theorie erklärt das Experiment und schlägt vor, welche Fragen gestellt werden müssen und welche Experimente daher durchgeführt werden müssen. Wohingegen das Experiment uns sagt, wo unsere Theorie richtig ist und wo sie falsch ist. Es gibt drei wichtigste offene Fragen in der Physik: dunkle Materie, dunkle Energie und Quantengravitation. Experiment hat die ersten beiden etabliert. Letzteres ist aufgrund der Einschränkungen der derzeitigen Technologie experimentell nicht wahrscheinlich, und deshalb gibt es solche Kontroversen über Theorien der Quantengravitation. Das zeigt, warum Experiment ...
... ist in der Physik nach wie vor enorm wichtig. Ohne sie kommen wir nicht weit.
Ja, natürlich ist das Experiment in der Physik entscheidend.
Vergessen Sie nicht Diracs Rückschluss auf Antimaterie!
Ich stimme dem großen Wert des Standardmodells zu, aber die Geschichte ist zwischen Theorie und Experiment viel ausgewogener, als diese Antwort vermuten lässt. Es gab viele experimentelle Überraschungen, und eine Liste der Höhepunkte der theoretischen Arbeit lässt die vielen anderen theoretischen Vorschläge aus, die sich als wenig hilfreich oder irreführend herausstellten.
Erwähnenswert ist, wie viele dieser Vorhersagen nicht intuitiv oder vorhersehbar waren, sie ergeben sich einfach aus der rohen Standardmodellmathematik, sobald die Werte von völlig unabhängigen Phänomenen verwendet werden, um eine relativ kleine Anzahl von Parametern zu bestimmen. Und dann stellen sich einige dieser Vorhersagen über Partikelmassen und Wechselwirkungen nicht nur als real heraus, sondern wurden auch mit erstaunlicher Genauigkeit vorhergesagt.
@Stilez Das ist genau richtig. Ich hoffte, das war in der Antwort impliziert. Ich werde Ihre Punkte tatsächlich hinzufügen, wenn ich etwas Zeit habe. Danke.
Mir ist aufgefallen, dass Menschen manchmal mehr Wert auf Experimente als auf Theorie legen. Wenn Sie die Artikel in den 1960er Jahren lesen, in denen einiges davon entstand, war es entscheidend, dass theoretische Untersuchungen durchgeführt wurden, die zu Goldstones Theorem, masselosen Nambu-Goldstone-Bosonen, spontaner Symmetriebrechung usw. führten, und davor zu Zuminos Arbeit über zweidimensionale Elektrodynamik und so weiter.
@joseph h - Du hast Recht! Ich hätte mir die Tags der vorliegenden Frage ansehen sollen. Im richtigen Kontext waren meine Kommentare total idiotisch, also werde ich sie sofort löschen. (Ich bin besessen von Kosmologie – die alles andere in meiner Lektüre ersetzt hat – aber ziemlich lahm von Teilchenphysik, die offensichtlich viele erfolgreiche terrestrische Anwendungen hatte und natürlich in Guths inspirierendes Modell einfließt.) Ich schätze es aufrichtig Sie machen mich auf diesen Fauxpas aufmerksam.
@Edouard lol. Kein Problem. Ich habe mich des gleichen schuldig gemacht. Ich werde meine Antworten auch löschen. Beifall.

Das Standardmodell kann viele Parameter haben, aber es spricht auch über viele Dinge, von denen jedes normalerweise nur eine sehr begrenzte Anzahl von Parametern beinhaltet. Zum Beispiel die Myonenlebensdauer

τ μ = 6144 π 3 M W 4 G 4 M μ 5
hängt nur davon ab M W , G , M μ ( G ist die schwache Isospin-Kopplung) und die Tauon-Lebensdauer τ τ erfüllt
τ τ τ μ = 1 3 ( | v u D | 2 + | v u S | 2 ) + 2 M μ 5 M τ 5 ,
was nur davon abhängt | v u D | , | v u S | , M μ , M τ . Diese beiden Vorhersagen benötigen also sechs Parameter, was an sich nicht so beeindruckend klingt. Aber das geht hier am Ziel vorbei. Die gesamte Liste der SM-Vorhersagen verwendet alle Parameter in einer Vielzahl von Teilmengen, wodurch ein System von weit, weit mehr simultanen Gleichungen entsteht, als wir Parameter haben. Wenn es (um eine hier diskutierte Schätzung zu nehmen) es gibt 37 Parameter, es ist nicht so, als würden wir einen Grad anpassen- 36 Polynom j = P ( X ) von OLS . Es ist eher so, als müssten dieselben wenigen Koeffizienten gleichzeitig für viele verschiedene Regressionsprobleme geeignet sein.

Ich bin mir sicher, dass jemand gegen meine Formel Einspruch erheben wird τ μ hat eine Zeit auf der linken Seite und eine inverse Masse auf der rechten Seite, verwendet natürliche Einheiten und sollte lauten

τ μ = C 2 6144 π 3 M W 4 G 4 M μ 5
in SI-Einheiten, um die Verwendung von zwei weiteren Parametern offenzulegen C , . Denken Sie jedoch daran, dass beide per Definition exakte SI-Werte haben . Jedenfalls hat es keinen wirklichen Einfluss auf die Argumentation.

Und vergessen Sie nicht die Vorhersagekraft des Standardmodells. Es sagt fast die gesamte Physik mit hoher Genauigkeit auf Skalen von subatomar bis intergalaktisch voraus.
@AccidentalTaylorExpansion subatomar OK, aber makroskopisch / intergalaktisch? Können Sie mir ein paar Beispiele nennen?

Der LHC hat bis heute 2.852 Veröffentlichungen erstellt: 24. September 2021. Nehmen wir an, jede Veröffentlichung hat 5 Plots. Jeder Plot hat 50 Punkte. Wir runden das auf 1.000.000 Datenpunkte auf, zusammen mit einem Vergleich zur Theorie.

Welcher Bruchteil der Teilchenphysikdaten ist der LHC? 1%? Ich weiß nicht. Die Teilchenphysik begann 1908 mit der von Rutherford 197 A u ( a , a ) 197 A u Experiment. Nehmen wir an, LHC macht 0,1 % aller Daten aus.

Das bedeutet 1 Milliarde Datenpunkte erklärt mit N freie Parameter. Ich erinnere mich N = 37 , aber vielleicht hat es sich geändert. Wikipedia sagen N = 19 . Ich weiß es nicht.

In jedem Fall ist die Datenmenge über Größenordnungen der Energie, die alle bekannten Formen von Materie umfasst, in EM-, schwachen und starken Sektoren, die durch so wenige Parameter erklärt werden, außergewöhnlich.

Trotz dunkler Dinge .

Ihr Standpunkt ist gut getroffen, aber fürs Protokoll, die meisten dieser Datenpunkte sind nicht unabhängig voneinander (Energieauflösung verschmiert Verteilungen, dieselben Parameter werden immer wieder gemessen), was Ihre Schätzung um viele Größenordnungen reduziert. Immer noch eine große Zahl im Vergleich zur Anzahl freier Parameter.
@rfl es sind nur die gleichen Parameter, wenn das Modell stimmt. Die Messung des Weinberg-Winkels bei LEP vs. Paritätsverletzung in Atomorbitalen könnte in einem alternativen (und falschen) Standardmodell völlig unabhängig sein.
Sicher. Aber auch ein bestimmtes Verzweigungsverhältnis oder Lebensdauer etc. wird in (hoffentlich immer genaueren) Veröffentlichungen immer wieder gemessen
Als ich nach Saint-Genis-Pouilly ging, traf ich eine Zusammenarbeit mit 2.852 Publikationen...
Die 19 Parameter von Wikipedia enthalten keine Neutrinomasse. Mit Neutrinomasse ist es 26. Manche Leute zählen nicht θ QCD was es auf 18 oder 25 bringt.

Die Frage ist letztlich nicht die der Physik, sondern der Statistik. Aus gutem Grund bleibt die Teilchenphysik eines der wenigen Gebiete der Physik, in denen Statistik noch auf fortgeschrittenem Niveau praktiziert wird (in vielen anderen Gebieten reduzierte die hohe Genauigkeit der Messungen die Notwendigkeit der statistischen Analyse auf die Berechnung von Standardabweichungen). Insbesondere das Statistikkapitel in PRD ist ein ausgezeichneter Crashkurs über statistische Analysen. 

Wie viele Parameter sind viele? 

In der Physik sind wir an Modelle gewöhnt, bei denen die Anzahl der Parameter an unseren Fingern gezählt werden kann, weil wir darauf abzielen, die elementaren Wechselwirkungen/Prozesse/etc. zu verstehen. Die Beschreibung von Phänomenen der realen Welt führt zwangsläufig dazu, viele Elemente zu kombinieren und mehr Parameter zu verwenden. Die Modelle, die in der Technik verwendet werden, zB um Flugzeuge zu entwerfen, oder in der Regierungsplanung enthalten Hunderte oder Tausende von Parametern. Das hohe Versprechen des maschinellen Lernens ist auf die moderne Rechenfähigkeit zurückzuführen, Modelle mit Millionen von Parametern zu verwenden, die oft (für den Menschen) eine sehr obskure Bedeutung haben – aber sie funktionieren immer noch sehr gut, wie wir durch das Markieren von Fotos auf Facebook oder die wachsende Qualität von Google sehen übersetzen.

Wie viele Daten? 

Ob wir zu viele Parameter haben, hängt davon ab, wie viele Daten wir haben. Die Faustregel besagt, dass wir mehr Datenpunkte als Parameter haben. Prinzipiellere Ansätze basieren jedoch auf der Wahrscheinlichkeit , die die Wahrscheinlichkeit ist, Daten zu beobachten, angesichts unserer Parameterwerte:

P ( D | θ ) .
Modell ist in diesem Zusammenhang das Mittel, um diese Beziehung zwischen den Parametern und den Daten mathematisch auszudrücken.

Nun, wenn unser Modell gut ist, wird die Wahrscheinlichkeit zunehmen, wenn wir die Datenmenge (die Anzahl der Datenpunkte) erhöhen – obwohl diese Zunahme aufgrund der zufälligen Effekte nicht streng monoton ist. Geschieht dies nicht, ist unser Modell nicht gut – vielleicht ist es zu simpel, hat zu wenige Parameter – das nennt man Underfitting .

Modelle vergleichen 

Angesichts einer Fülle von Daten führt das Modell mit mehr Parametern im Allgemeinen zu einer höheren Wahrscheinlichkeit – hier liegt das im OP angesprochene Problem. Lassen Sie mich am Rande anmerken, dass wir ein Modell für sich genommen nie beweisen oder widerlegen können – vielmehr vergleichen wir verschiedene Modelle und wählen ein besseres aus. Ein Modell mit mehr Parametern kann einfach besser sein, weil es die physikalische Realität besser abbildet. Aber ein solches Modell kann zu einer höheren Wahrscheinlichkeit führen, einfach weil wir mehr Parameter abzustimmen haben – das nennen wir Overfitting .

Es wurden Verfahren zum Korrigieren der Anzahl von Parametern beim Korrigieren des Modells entwickelt. Eines der bekanntesten ist das Akaike-Informationskriterium (AIC), bei dem Mengen verglichen werden

A ICH C = k M Protokoll P ( D | M ) ,

Wo k M ist die Anzahl der Parameter eines Modells M . Das Modell mit dem niedrigsten AIC-Wert wird dann als dasjenige angesehen, das mit der geringsten Anzahl von Parametern die besten Ergebnisse erzielt.

Damit dieses einfache Kriterium nicht zu intuitiv erscheint, möchte ich darauf hinweisen, dass es einiges an Mathematik erfordert, um es rigoros zu rechtfertigen. Es gibt auch ausgefeiltere Versionen sowie alternative Kriterien, wie das Bayes'sche Informationskriterium (where k M wird durch seinen Logarithmus ersetzt). 

So geht die Wahl des besten Modells auf den Punkt. Die Physik kommt bei der Formulierung der logisch motivierten Modelle zur Auswahl. Ich vermute, wenn wir uns die Veröffentlichungen in der Zeit ansehen, in der das Standardmodell formuliert wurde, gab es einige alternative Vorschläge, und wahrscheinlich wurden noch mehr in Diskussionen unter den Wissenschaftlern gebracht. Das Schöne an der Physik ist jedoch, dass sie es ermöglicht, die Auswahl an Modellen erheblich einzuschränken – als Alternative zu Ansätzen des maschinellen Lernens, bei denen alle möglichen Modelle gleich sind und die Auswahl ausschließlich auf ihrer Kompatibilität mit den Daten basiert.

Wenn Sie haben N Eingabeparameter in einer deterministischen Theorie können Sie höchstens perfekt anpassen N Datenpunkte, indem Sie einfach diese Parameter anpassen. In einer probabalistischen Theorie, die subtiler ist, gibt es jedoch eine ähnliche Assoziation. Unabhängig davon, wie viele Parameter das Standardmodell benötigt, ist es viel weniger als nötig wäre, um die 1 Petabyte an Daten aufzunehmen, die am LHC pro Sekunde gesammelt werden.

Wir sollten das Standardmodell ernst nehmen, weil es eine hervorragende Vorhersagekraft hat

Ich habe das Gefühl, dass die Konzentration auf die vielen manuell eingegebenen Parameter im Standardmodell den Wald vor lauter Bäumen vermisst. Naturgesetze müssen nicht unseren Vorstellungen davon entsprechen, wie eine Theorie aussehen sollte. Der ultimative Schiedsrichter für die Theorie ist, ob sie überprüfbare Vorhersagen macht. Da das Standardmodell so gut darin ist, sollten wir es ernst nehmen.

30 ungerade Parameter sind nicht viel im Vergleich zu 30.000 oder sogar 30 Millionen. Natürlich möchten Physiker die Anzahl der Parameter auf einen oder gar keinen reduzieren. Wir können es jedoch aufgrund seines experimentellen Erfolgs ernst nehmen. Eine mathematisch elegantere Herleitung des Standardmodells geht über nichtkommutative Geometrie. Dies erzeugt das vollständige Modell einschließlich der Neutrinomischung auf natürlich geometrische Weise – selbst wenn es nicht kommutativ ist.

„Dies erzeugt das vollständige Modell einschließlich der Neutrino-Mischung auf natürlich geometrische Weise – auch wenn es nicht kommutativ ist.“ Können Sie eine Referenz angeben?
@mithusengupta123:Schauen Sie in das Buch Non-Commutative Geometry von Alain Connes und Mathilda Marcolli.
@MoziburUllah Sie sollten die Arbeit von Connes nicht ohne den obligatorischen Haftungsausschluss erwähnen, dass es sich nicht um Mainstream-Forschung handelt.
@Prof. Legoslav: Ich glaube nicht, dass das nötig ist - sogar Witten hat sich mit nicht-kommutativer Geometrie beschäftigt. Darüber hinaus ist viel Arbeit in der Wissenschaft nicht Mainstream.
@MoziburUllah es ist notwendig. Non-Mainstream bedeutet nicht falsch, dem stimme ich zu. Aber wir können Leute wie OP nicht irreführen – wir müssen ehrlich sein, was bestätigt ist und was nicht. Nur deswegen runtergevotet.