Warum werden die Generationen von Leptonen/Quarks als Elementarteilchen betrachtet?

Mein Verständnis ist, dass "fundamental" sich darauf bezieht, dass es ein bestimmtes Quantenfeld gibt, das dem Teilchen entspricht. Ich stelle die obige Frage basierend auf der Tatsache, dass die schwereren Teilchengenerationen zerfallen. Welchen Grund haben wir zu glauben, dass das, was ursprünglich, sagen wir, eine lokalisierte Erregung des Tau-Feldes war, das einem Tau-Teilchen entspricht, keine kollektive Erregung der Teilchenfelder war, in die es anschließend zerfällt? Ich würde diese Frage auf zwei Arten beantworten:

  1. Experimentell vermute ich, dass wir versuchen, Streuexperimente durchzuführen. Ich denke, dass die Theoretiker eine Vorhersage des differentiellen Streuquerschnitts haben würden, wenn das 'Tau' eine kollektive Erregung mehrerer anderer Felder wäre, die sich anschließend auflösen. Aber ich bin mir nicht sicher, wie überzeugend diese Art von Beweisen ist.

    Ein weiterer experimenteller Faktor könnten Beschleunigungsexperimente sein, um die Teilchen mit längerer Lebensdauer im Laborrahmen zu „beobachten“, und wir würden nicht erwarten, dass eine kollektive Anregung mehrerer Felder das gleiche Verhalten hat.

  2. Theoretisch. Ich bin mit der Gruppenstruktur des Standardmodells vage vertraut, aber nicht genug über die Details, um zu sehen, wie dies die obige Frage beantwortet und wie überzeugend.

Im Wesentlichen interessiert mich nur, wie jemand, der viel mehr Wissen in Teilchenphysik hat, diese Frage beantworten würde. Ich habe diesen Beitrag gelesen , kann aber keine Antwort finden. Ich kenne die klassische und (etwas) Quantenfeldtheorie und mache gerade einen Kurs in Teilchenphysik. Aber darauf wurde nicht eingegangen.

? Schwere Teilchen wie die massiven Eichbosonen ( W,Z ) zerfallen genauso wie zusammengesetzte, wie das Neutron. Sie sind alle durch Quantenfelder beschreibbar, die mit anderen gekoppelt sind und den Zerfall auslösen.
In jedem Fall ist Compositeness eine rein experimentelle Frage. Sie können sich theoretische Modelle der Zusammensetzung für beliebige und alle Teilchen ausdenken, aber man braucht solche Fantasien nicht ohne experimentelle Bestätigung zu beachten. Das PDG strotzt vor zusammengesetzten (negativen) Grenzen.
Verwandte , und auch .
Verwandte Frage hier . Compositeness ist durchaus möglich und wurde definitiv untersucht, aber im Moment gibt es keine Beobachtungen, die eine Erklärung erfordern.

Antworten (2)

Das Standardmodell der Teilchenphysik ist eine Kapselung einer sehr großen Zahl von Daten, ausgestattet mit einem spezifischen theoretischen Modell, einer Quantenfeldtheorie. In dieser Theorie werden die Teilchentabelle und die entsprechenden Antiteilchen axiomatisch als fundamentale Punktteilchen mit gegebener Masse und Quantenzahl betrachtet.

Wie in der Mathematik, wenn man Axiome in Frage stellt, ändert sich die Theorie, wenn man die Teilchentabelle in Frage stellt, muss man zu einer neuen Theorie kommen. Das Standardmodell ist sehr erfolgreich beim Anpassen und Vorhersagen von Daten, es sollte in die neue vorgeschlagene Theorie eingebettet werden.

Im Moment sind die einzigen Theorien, die das Standardmodell einbetten können, Stringtheorien, die von Punktteilchen zu Strings oder Membranen gehen, die ebenfalls nicht zusammengesetzt sind.

Ich denke, die grundlegende Tatsache ist die Erhaltung der Leptonzahl, was experimentell festgestellt wurde: dass ein negatives Myon kein gebundener Zustand eines Elektrons ist, ein Elektron-Antineutrino und ein Myon-Neutrino, in das es zerfällt.

Außerdem hat das Standardmodell vor der elektroschwachen Symmetriebrechung alle fundamentalen Teilchen masselos, so dass sie nicht ineinander zerfallen können.

Die Feldtheorie muss auf den freien Wellenfunktionen der entsprechenden Gleichungen (Dirac für Fermionen usw.) basieren, also muss man die Teilchen selbst betrachten, bevor man die Feldtheorie aufstellt. Alles in allem ist das derzeit einfachste Modell das Standardmodell und es gibt absolut keine experimentellen Hinweise auf Verletzungen der Leptonenzahlerhaltung, die etwas mathematisch viel Komplizierteres erfordern würden.

Ich denke, das OP berührt einen sehr subtilen Punkt von QFT, der nicht zu leicht abgetan werden sollte. Der Hilbert-Raum jeder QFT wird von den asymptotischen ('in' oder 'out') Zuständen aller stabilen Teilchen aufgespannt. Für die SM umfassen diese Zustände freie Elementarteilchen wie das Elektron sowie gebundene Zustände wie das Proton oder sogar das Wasserstoffatom, insbesondere aber nicht das Tau-Lepton. In diesem Sinne ist die anfängliche „lokalisierte Anregung des Tau-Felds“ (was auch immer das genau sein mag) notwendigerweise nur eine Überlagerung der Teilchen, in die es zerfällt.

Der Formalismus der QFT gibt uns tatsächlich die Freiheit, schwere instabile Teilchen aus der Theorie zu entfernen, ohne die Physik zu ändern. Dieses Verfahren wird als „Integrieren der massiven Freiheitsgrade“ bezeichnet und wird in effektiven Feldtheorien verwendet. Im Pfadintegral-Formalismus bedeutet dies nur, was auf der Dose steht: Sie führen das Integral über beispielsweise die W-, Z- und Top-Quark-Felder aus, lassen die anderen Felder jedoch in Ruhe. Der Preis, den Sie dafür zahlen, besteht darin, dass Sie nicht lokale Wechselwirkungen zwischen den verbleibenden Feldern erhalten. In der effektiven Feldtheorie geht man dann vor, indem man die nichtlokalen Wechselwirkungsterme zu einer unendlichen Reihe lokaler Wechselwirkungsterme erweitert.

Ich würde also sagen, der Grund, warum wir glauben, dass Tau-Lepton (und W, Z, Top-Quar, Higgs usw.) existieren und grundlegend sind, ist, dass es niemandem gelungen ist, eine lokale und renormalisierbare Theorie niederzuschreiben, die durchkommt ohne sie und gibt die Streuquerschnitte der Teilchen, die wir beobachten können, korrekt wieder.