Sind die Ruhemassen von Elementarteilchen sicherlich Konstanten?

Insbesondere bin ich neugierig, ob die Werte der Ruhemassen des Elektrons, des Up/Down-Quarks, des Neutrinos und der entsprechenden Teilchen über die nächsten zwei Generationen als konstant definiert werden können oder ob es eine intrinsische Unsicherheit in den Zahlen gibt. Ich nehme an, da es (noch) keine mathematische Theorie gibt, die diese Massen erzeugt, müssen wir uns stattdessen auf experimentelle Ergebnisse verlassen, die immer mit Fehlern behaftet sein werden. Aber ich frage mich, geht es tiefer als das? Gibt es solche konstanten Werte in der Natur oder können sie wie so viele andere Observablen vor der Messung über eine Verteilung "verschmiert" werden? (Sampeln wir eine Verteilung, wenn auch eine sehr enge?) Sagt die aktuelle Theorie etwas darüber aus? (dh sie müssen konstant sein, ohne Spielraum vs. ohne Kommentar)

Ich bin mit On-Shell- und Off-Shell-Partikeln etwas vertraut - aber ich muss gestehen, dass ich mir nicht sicher bin, ob dies in meine Frage passt. Ich möchte sagen, dass ich als Beispiel von der Ruhemasse des Elektrons spreche, wie sie durch Ladung und Ladungs-Masse-Verhältnisse bestimmt werden könnte. Aber vielleicht wird genau diese Zahl selbst von Elektronenmassen außerhalb der Schale beeinflusst? Vielleicht macht das keinen Sinn. Unnötig zu erwähnen, dass ich mich über jede Klarstellung freuen würde.

Antworten (5)

Das sind sie mit Sicherheit nicht . Sie haben Recht, dass es keine Theorie gibt, die Massen erklärt (diese werden als Parameter eingegeben), aber beachten Sie, dass unsere aktuellen Theorien, die verwendet werden, um z. B. LHC-Daten zu erklären (dh Quantenfeldtheorien), zwangsläufig mit einer Skala verbunden sind: Sie müssen bis zu beschreiben welche energien machst du physik sonst macht die theorie einfach keinen sinn [ füge hier die übliche geschichte über renormalisierung und unendlichkeiten ein die oft erzählt werden, um kleinen kindern vor dem zubettgehen angst zu machen ].

Nun, das sollte nicht so überraschend kommen, da neue Teilchen gleich hinter der Ecke auf ihre Entdeckung warten, also wäre es absurd zu behaupten, wir hätten eine vollständige Theorie. Stattdessen behaupten wir, dass wir eine gute Theorie haben, die bis zu einem gewissen Grad funktioniert. Folglich müssen alle Parameter, die von Hand eingegeben werden, von der Waage abhängen. Dies liegt wiederum daran, dass Theorien auf unterschiedlichen Skalen potenziell völlig unterschiedlich sind (z. B. wird auf der "gegenwärtigen Skala" keine Supersymmetrie angenommen, während es denkbar ist, dass unsere Theorien auf einer etwas höheren Skala sie einbeziehen müssen) und daher die Parameter der Theorien, die verwendet werden, um die Theorie mit dem Experiment zu verbinden, haben möglicherweise keine Beziehung zueinander. Dieses Phänomen ist als Laufen von Kopplungskonstanten oder kurz Laufkopplung bekannt.

Die Moral ist, dass alle Ruhemassen und Wechselwirkungs-"Konstanten" von einem gewissen Maßstab abhängen. Sie sollten nicht als etwas inhärent Tiefes über die Natur gedacht werden, sondern nur als passende Parameter, die nur effektive Massen und effektive Kopplung beschreiben. Um zu veranschaulichen, warum sie gerade effektiv sind: Betrachten Sie ein Elektron in der klassischen Physik. Wir können seine Ladung mit üblichen Methoden messen. Dieser Wert ist der Langstrecken-Low-Energy e ( E 0 ) Grenze der maßstabsabhängigen Kopplung e ( E ) . Wenn Sie die Energie erhöhen und versuchen, das Elektron in kürzeren Abständen zu untersuchen, werden Sie feststellen, dass viele andere Elektron-Positron-Paare erscheinen, die das Elektron abschirmen, und die Ladung, die Sie messen werden, wird aufgrund dieser veränderten Bedingungen anders sein (wir sprechen über die Polarisation des Vakuums).

Nur der Vollständigkeit halber: Das könnte man so sagen E 0 Grenze das Wichtigste bei Kopplungen ist und dass wir das als Definition nehmen sollten. Wenn dem so ist, dann sind diese Fernkopplungen tatsächlich Konstanten, wie man sie in der klassischen Physik verwendet hat. Aber dieser Standpunkt ist in der Teilchenphysik wertlos, wo die Leute stattdessen versuchen, etwas zu machen E so hoch wie möglich, um eine auf hohen Skalen gültige Theorie zu erhalten (da dies am LHC benötigt wird).

Anfangs war ich auch besorgt über die Ablehnung. Ich habe den Link gelesen und anschließend über die Renormalisierung gelesen. Dies scheint nicht nur ein mathematischer Trick zu sein, sondern modelliert, was in immer kleineren Entfernungen passiert. In diesem Fall sehen wir die Masse überhaupt nicht als konstant an, sondern als skalenbezogenen Parameter. Aber sind es nicht die Massen bei E -> 0, die bei der Renormierung angepasst werden - und das sind wahre Konstanten?
@jaskey: Ja, es gibt zwei (zusammenhängende) Effekte: den der Renormalisierung (bekannt als Subtraktion von Unendlichkeiten) und die Renormalisierungsgruppe (dh Skalenabhängigkeit). In dem von mir erwähnten Beispiel mit Elektron, sogar bei der E 0 Grenze müssen wir Renormalisierung verwenden, da es immer eine Ladungsabschirmung aufgrund des eigenen Feldes des Elektrons gibt und sich dies als unendlich herausstellt, wenn es naiv berechnet wird. Man verwendet Renormierung, um es endlich zu machen. Aber dann, wenn wir den Maßstab ändern E Wir werden feststellen, dass sich die (jetzt endliche) Ladung erneut ändert (aufgrund von Skaleneffekten mit höherer Energie).

Ich denke, ich kann mir drei Möglichkeiten vorstellen, wie Massen nicht konstant sein könnten. (1) Sie könnten sich aufgrund quantenmechanischer Fluktuationen ändern, (2) sie könnten für verschiedene Teilchen gleichzeitig leicht unterschiedlich sein, (3) oder sie könnten sich über kosmologische Zeitintervalle ändern.

Nummer 1 scheint das zu sein, was Sie im Sinn hatten, aber ich glaube nicht, dass es funktioniert. Das Standardbild ist, dass für ein Teilchen der Masse m sein Impuls p und seine Massenenergie E schwanken können, aber die Schwankungen sind immer so m = E 2 p 2 (mit c=1) bleibt gleich.

Zu Nr. 2, hier sind einige gute Informationen: Sind alle Elektronen identisch?

Zu Nr. 3, eine Sache, auf die man achten sollte, ist, dass es unmöglich ist, nicht einmal im Prinzip zu sagen, ob sich eine Einheits-Grundkonstante ändert. Der Begriff macht nur Sinn, wenn Sie über einheitenlose Konstanten sprechen: Duff, http://arxiv.org/abs/hep-th/0208093 Es ist jedoch sicherlich sinnvoll, über Änderungen in den einheitslosen Verhältnissen von Naturkonstanten zu sprechen, wie z das Verhältnis zweier Massen oder die Feinstrukturkonstante.

Es gibt Behauptungen von Webb et al. JK Webb et al., http://arxiv.org/abs/astro-ph/0012539v3 , dass sich die Feinstrukturkonstante über kosmologische Zeitskalen verändert hat. Chandet al., Astron. Astrophie. 417: 853, konnte das Ergebnis nicht reproduzieren, und meiner Meinung nach ist es falsch. Mir sind keine ähnlichen Tests für die Massenverhältnisse fundamentaler Teilchen bekannt. Wenn Sie das Massenverhältnis von Elektron und Proton ändern, ändert sich das Spektrum von Wasserstoff, aber zumindest in erster Ordnung wäre die Änderung nur eine Neuskalierung der Energien, die nicht von einer winzigen Änderung der Dopplerverschiebung zu unterscheiden wäre .

Die Brans-Dicke-Schwerkraft (Physical Review 124 (1961) 925, http://loyno.edu/~brans/ST-history/ ) hat ein skalares Feld, das entweder als lokale Variation der Trägheit oder als lokale Variation der Trägheit interpretiert werden kann Gravitationskonstante G. Dies könnte in gewissem Sinne so interpretiert werden, dass zB Elektronen an verschiedenen Orten in der Raumzeit unterschiedliche Massen hätten, aber alle Teilchen auf die gleiche Weise beeinflusst würden, so dass es keine Auswirkungen auf die Massenverhältnisse gäbe -- daher die Mehrdeutigkeit zwischen der Interpretation als Variation der Trägheit oder als Variation der G. BD-Schwerkraft hat eine einheitslose Konstante ω , und die Grenze ω entspricht der allgemeinen Relativitätstheorie. Solarsystemtests beschränken ω mindestens 40.000 sein, also ist die BD-Schwerkraft heutzutage im Grunde genommen tot.

Oder sie könnten (am relevantesten) eine Folge der Renormierungsgruppentheorie der QFT sein, wo sich herausstellt, dass sie eigentlich überhaupt keine Konstanten sind. Dies ist zB die berühmte Vereinigung von Kräften in GUT-Theorien: Kopplungsparameter von Elektroschwachen (diese hat zwei Komponenten U ( 1 ) und S U ( 2 ) , und wird folglich durch zwei Parameter beschrieben, aber diese Komponenten sind nicht die gleichen wie EM und schwache Parameter, an die wir in der Niedrigenergiephysik gewöhnt sind) und eine starke Kraft hängt von der Skala ab, und auf der GUT-Skala treffen sich alle drei gleichzeitig Punkt.
Zu Punkt 1. Da wir die Ruhemasse als Invariante des Energie/Impuls-Viervektors finden, finden wir in ähnlicher Weise eine invariante Länge für den Ort/Zeit-Viervektor. Ich sehe die Positions-Impuls-Unschärferelation und dann die Energie-Zeit-Unschärferelation. Irgendwo (glaube, es war Griffiths Q & M) habe ich gelesen, dass die Energie-Zeit-Beziehung ein Nebenprodukt der Erweiterung der Positions-Impuls-Beziehung in die spezielle Relativitätstheorie ist (3 -> 4 Vektoren). Wenn dies korrekt ist, sollte es eine Unsicherheitsbeziehung für die Invariante geben Länge eines Partikel-4-Vektors und seine Ruhemasse? Oder kann man das nicht? Warum?

Wenn Sie darüber nachdenken, müssen Sie jedes Mal, wenn Sie eine Messung durchführen, ein Gerät verwenden, das durch quantenmechanische Gesetze eingeschränkt ist. Jedes Gerät, das das Gewicht eines Partikels misst, muss das Gewicht über einen Zustandsübergang im Inneren des Geräts aufzeichnen ... (z. B. muss sich das Gerät in irgendeiner Weise ändern, wenn das Partikel in seine Nähe gebracht wird, also selbst wenn das Partikel bei der Beobachtung in Ruhe ist gemacht wird, muss das Gerät einen gewissen Übergang in der internen Position und im Impuls haben, um eine Beobachtung aufzuzeichnen). Ich würde also sagen, dass die Quantenmechanik eine Grenze dafür setzt, wie nahe wir an die tatsächliche Ruhemasse eines Teilchens herankommen können. Diese Grenze ist immer ungefähr proportional zur Plancks-Konstante oder zur Plancks-Konstante mal 1/2.

Beachten Sie, dass die Unsicherheit nicht von der Masse selbst herrührt, sondern vom Messprozess, der per Definition eine gewisse Partikelbewegung beinhaltet, was wiederum die Unsicherheit auf die Heisenberg-Grenzen begrenzt.
Dann würden Sie mit Ihrer Antwort behaupten, dass die Ruhemassen echte Konstanten sind, aber aufgrund unseres begrenzten Messverfahrens für immer außerhalb unserer Reichweite liegen? Vielleicht trete ich hier in die Philosophie ein – aber wie kann man sagen, dass etwas real (oder konstant) ist, wenn es nicht durch Beobachtung als solches verifiziert werden kann?
Ich sage nicht, dass es konstant ist, ich sage, dass es aufgrund der Quantenmechanik immer eine gewisse Unsicherheit geben wird.
Daher ist es unmöglich zu überprüfen, ob eine Observable "wirklich" eine Konstante ist. Aber meiner Meinung nach ist es eine gute Annäherung, die Unsicherheit auf einen Faktor von 10 ^ -34 $ zu bringen, dass ich einfach weitergehe und annehme, dass es eine Konstante ist ... was diese Frage übrigens motiviert
Ich lese Lehrbücher, bin aber nicht an einer Universität – wenn ich also etwas nicht lösen kann, frage ich es hier. Ich habe das Gefühl, dass ich immer wieder die Annahme der Ruhemasse als Konstante für ein bestimmtes Teilchen gesehen habe, aber keinen Grund dafür gesehen habe, warum dies so sein sollte – insbesondere angesichts der Natur der Quantenwelt. Ich würde gerne eine theoretische Motivation für Beständigkeit sehen - aber bis jetzt (und insbesondere angesichts der Reihe von Antworten) sehe ich keine
Wenn man etwas misst und immer das gleiche Ergebnis erhält, neigen die Leute dazu zu denken, dass das, was man gemessen hat, eine Konstante ist ... zum Beispiel jedes Mal, wenn ich auf meiner Waage stehe, werde ich daran erinnert, dass ich ständig ein Fettsack bin ... Tut mir leid, aber Wenn Sie nicht die Motivation dafür sehen, warum die Dinge als konstant (gleich) angesehen werden, dann suchen Sie nicht genau genug.
Wenn die Probenahme eng verteilt ist – eine, die nicht innerhalb der Grenzen aktueller Messgeräte aufgelöst werden kann – dann nein: Wiederholte Ergebnisse mit ihren entsprechenden Unsicherheiten weisen nicht auf eine Konstante hin. Selbst in Ihrem Waagenbeispiel – Ihr Körpergewicht schwankt im Laufe des Tages – obwohl Ihre Waage möglicherweise nicht genau genug ist, um dies zu registrieren – ist es dennoch sicherlich nicht konstant. Verwirrend dabei ist, dass möglicherweise die Menge an Messungen, die erforderlich ist, um eine Masse zu finden, die außerhalb der größten Datenmenge in der Verteilung liegt, möglicherweise noch nicht durchgeführt wurde. Wo ist also die Motivation?

Die Ruhemassen von Elementarteilchen sind sicherlich KEINE Konstanten!

Ich werde von den Seiten 6-9 (von 20) eines kürzlich erschienenen Dokuments von Alfredo (unabhängiger Forscher)
die ausreichenden Informationen kopieren/einfügen, um zu zeigen, wie sich atomare Eigenschaften , einschließlich der Masse, auf kosmologischer Ebene ändern können.
Ausgehend nur von Daten und ohne Hypothese stellt er formal ein Ausdehnungsmodell des Universums vor, in dem die Atome nicht unveränderlich sind und physikalische Gesetze gelten, ohne Widerspruch mit GR, und vergleicht das Modell mit FRW und Λ CDM-Modelle.

(Das ganze Papier verdient Ihre Aufmerksamkeit, es ist sehr klar und verwendet nur grundlegende Physik, die meiner Meinung nach für Studenten im Grundstudium zugänglich sind. Er macht eine vollständige Studie darüber, wie wir messen, Einheiten, lokale und Feldkonstanten und Gesetze, wie eine Variation existieren kann und warum wir uns dessen nicht bewusst sind, und vieles mehr)

Zitat von Alfredo :
Wie das Universum skaliert werden kann

Wir haben gesehen, dass, wenn die Raumausdehnung ein Skalierungsphänomen verfolgt, wir damit rechnen sollten, variierende Feldkonstanten zu entdecken; wir müssen jetzt herausfinden, warum das nicht beachtet wird. Das erste, was Sie tun müssen, ist, nach den Dimensionsfunktionen von field und einigen anderen Konstanten zu suchen:

[ G ] = M 1 L 3 T 2 [ ε ] = M 1 Q 2 L 3 T 2 [ c ] = L T 1 [ h ] = M L 2 T 1 [ σ ] = M 3 L 8 T 5 .

Die Gleichungen der Feldkonstanten ( G , ε und c ) zeigen eine besondere Eigenschaft: Die Summe der Exponenten der Dimensionsfunktion jeder Feldkonstante ist Null! Dies ist unerwartet und tritt bei den anderen Konstanten nicht auf. Das heißt, wenn sich alle vier betroffenen Basiseinheiten um denselben Faktor ändern,

M = Q = L = T ,
dann gelten die Maßeinheiten der Feldkonstanten als unveränderlich, [ G ] = [ ε ] = [ c ] = 1 . Um die Relevanz davon zu sehen, wollen wir uns vorstellen, dass sich die atomaren Einheiten von Masse, Ladung, Länge und Zeit im Verhältnis zu den Raumeinheiten alle mit der gleichen Geschwindigkeit ändern. In diesem Fall bleiben aufgrund der oben gezeigten Eigenschaft die atomaren Einheiten der Feldkonstanten in Bezug auf die räumlichen invariant, und daher sind die Feldkonstanten in beiden Systemen invariant (sie sind in räumlichen Einheiten per Definition dieser invariant). ). Die Geometrie des Weltraums würde in atomaren Einheiten skaliert, während der Wert der Feldkonstanten unveränderlich bliebe – und genau das scheinen kosmische Daten anzuzeigen .

Die Tatsache, dass die Dimensionen von Feldkonstanten Nullsummen von Exponenten aufweisen, kann nur ein Zufall sein, aber es ist auch die Art von Hinweis, nach der wir gesucht haben, eine Eigenschaft, die in physikalische Gesetze eingebettet ist. Nur so können wir eine bisher unbekannte fundamentale Eigenschaft berücksichtigen, ohne mit der etablierten Physik in Konflikt zu geraten.

Wir haben jetzt das grundlegende Verständnis, das ein Skalierungsmodell (Dilatationsmodell) des Universums unterstützen kann, und wir werden jetzt mit der formalen Entwicklung dieses Modells fortfahren.
...
Daher ist eines der Einheitensysteme aus Materieeigenschaften definiert, hier mit Atomsystem bezeichnet und mit A ("A" von "atomic") identifiziert, und das andere ist das Raumsystem von Einheiten, identifiziert mit S (" S" von "Leerzeichen"); Letzteres ist so, dass Raumeigenschaften (Geometrie und Feldkonstanten) darin invariant bleiben, was erforderlich ist, um das S-System als intern definiert in Bezug auf den Raum zu qualifizieren. Somit sind die Bedingungen, die das S-System definieren, die folgenden:
- Die Einheiten von S sind derart, dass die S-Maße der Feldkonstanten unveränderlich sind;
- Die Längeneinheit von S ist derart, dass die Wellenlänge einer sich im Vakuum ausbreitenden Strahlung zeitinvariant ist.
Die Basisgrößen sind Masse ( M ), Ladung ( Q ), Zeit ( T ), Länge ( L ) und Temperatur ( θ ), und das Verhältnis zwischen A- und S-Basiseinheiten wird mit bezeichnet M EIN S , Q EIN S , T EIN S , L EIN S , θ EIN S . Beachten Sie, dass das Verhältnis zwischen den A- und S-Einheiten einer beliebigen Größe oder Konstante daher durch die jeweilige Dimensionsfunktion ausgedrückt wird;
...
Postulate

Das Modell wird nicht von Hypothesen abgeleitet, sondern von relevanten Beobachtungsergebnissen, die als Postulate formuliert werden:

  1. In atomaren Einheiten (A) sind alle Orts- und Feldkonstanten zeitunabhängig.
  2. L EIN S nimmt mit der Zeit ab.

Das erste Postulat wird durch die Erfahrung nicht vollständig unterstützt, da wir es nicht mit der erforderlichen Fehlermarge angeben können; Wir haben jedoch auch keinen stichhaltigen Hinweis aus Beobachtungen, dass es anders sein könnte. Das zweite Postulat stellt das beobachtete Phänomen der Raumausdehnung in atomaren Einheiten dar, das auf diese ungewöhnliche Weise ausgedrückt wird, weil es als Funktion von dargestellt wird L EIN S , also des Verhältnisses zwischen atomaren und räumlichen Längeneinheiten und nicht wie üblich umgekehrt.
...
S-Einheiten sind per Definition so, dass (Gl. 1)

d G S d t S = d ε S d t S = d c S d t S = 0.
Da die Feldkonstanten auch in atomaren Einheiten zeitinvariant sind, wie Postulat 1 besagt, und da die beiden Einheitensysteme identisch sind t = 0 , dann sind die Werte dieser Konstanten in beiden Systemen zu jedem Zeitpunkt gleich: (Gl. 2)
G EIN = G S = G ε EIN l L = ε S = ε c EIN l L = c S = c .

Die Beziehung zwischen den S- und A-Werten jeder Konstante ist die zwischen den jeweiligen A-Einheiten und S-Einheiten, die durch die Dimensionsfunktion gegeben ist,
daher (Gl. 3)
G S G EIN = [ G ] EIN S = M EIN S 1 L EIN S 3 T EIN S 2 = 1 ε S l L ε EIN = [ ε ] EIN S = M EIN S 1 Q EIN S 2 L EIN S 3 T EIN S 2 = 1 c S l L c EIN = [ c ] EIN S = L EIN S T EIN S 1 = 1.
Dieser Satz von Gleichungen impliziert M EIN S = Q EIN S = T EIN S = L EIN S . Nach Postulat 2, L EIN S ist eine Zeitfunktion, daher kann die Lösung dargestellt werden als: (Gl.4)
M EIN S ( t ) = Q EIN S ( t ) = T EIN S ( t ) = L EIN S ( t ) .
Beachten Sie, dass die Temperatur von diesem Ergebnis unabhängig ist.

Der nächste Schritt besteht darin, diese Zeitfunktion zu definieren, die das Gesetz des Raumskalenfaktors ist. Da alle oben genannten vier Basisgrößen dieser Funktion folgen, ist es zweckmäßig, sie durch eine spezifische Bezeichnung zu identifizieren; in dieser Arbeit wird dieses Skalierungsgesetz durch das Symbol gekennzeichnet a : (Gl.5)

a ( t ) = L EIN S ( t ) .
...
Das Skalierungsgesetz

Keine Hypothese über die Ursache der Expansion aufzustellen, bedeutet zu berücksichtigen, dass die Expansion auf eine grundlegende Eigenschaft zurückzuführen ist; eine andere Betrachtungsweise würde eine spezifische Hypothese zu einem bestimmten Phänomen implizieren, das die Expansion antreibt. Daher ist für dieses Modell die Raumausdehnung auf eine grundlegende Eigenschaft zurückzuführen, die ein selbstähnliches Phänomen nachzeichnet. Da keine Hypothese darüber aufgestellt wird, wie grundlegende Eigenschaften mit der Position in Raum und Zeit variieren können, wird angenommen, dass sie nicht davon abhängen. Dies impliziert, dass die Skalierung in einem physikalisch relevanten Einheitensystem eine konstante Zeitrate hat, dh dass das Skalierungsgesetz in einem solchen Einheitensystem exponentiell ist. In dem für dieses Modell festgelegten Rahmen gibt es nur zwei Möglichkeiten: Entweder ist die Raumausdehnung exponentiell in A-Einheiten ( L S EIN ( t EIN ) = a 1 ( t EIN ) ist exponentiell) oder Materie verschwindet exponentiell in S Einheiten ( L EIN S ( t S ) = a ( t S ) ist exponentiell). Der erstere Fall passt nicht zu Beobachtungen; nur der letztere Fall ist möglich.

Der allgemeine Ausdruck für ein exponentielles Skalierungsgesetz in S-Einheiten ist (Gl. 6)

a ( t S ) = k 1 e k 2 t s ;
in dem Augenblick t EIN = t S = 0 es ist a ( 0 ) = L EIN S ( 0 ) = 1 , so k 1 = 1 ; Beachten Sie nun, dass (Gl. 7)

d t S d t EIN = T EIN S = a
was zeigt, dass die Variation des Zeitmaßes umgekehrt proportional zur Zeiteinheit ist; und das (Gl.8)
r EIN = r S L EIN S 1 = r S a 1 ,
wobei r die Entfernung zu einem Punkt oder seine Längenkoordinate ist; da die Rate der Raumexpansion bei t = 0 per Definition der Wert der Hubble-Konstante ist, dargestellt durch H 0 , dann (Gl. 9)
H 0 = ( 1 r EIN d r EIN d t EIN ) 0 = k 2 ,
daher (Gl.10)
a ( t S ) = e H 0 t S .

Die Hubble-Konstante ist die gegenwärtige Raumexpansionsrate für einen Atombeobachter und ist die Materieevaneszenzrate (negativ) für einen Weltraumbeobachter.

Wenn Sie entschieden haben, dass Massen von der Zeit abhängen, müssen Sie nicht beweisen, dass Massen von der Zeit abhängen ;-)
@Vladimir Ich sehe keine Logik in deinem Satz. Es ist ein Trugschluss. Ich werde versuchen, es logisch umzuformulieren. „Wenn Sie sich entschieden haben zu zeigen , dass Massen von der Zeit abhängen können, müssen Sie eine Referenz 'über' den Teilchen verwenden , dann müssen Sie beweisen, dass 'physikalische Gesetze' (Gl. 3) immer noch gültig sind , wie der Autor es mit der Dimensionsanalyse getan hat .
Entschuldigung, das ist absolut lächerlich!
@Columbia Als ich ein kleiner Junge war, brauchte ich 40 Schritte, um die Straße vor meinem Haus zu überqueren. Jetzt messe ich es mit 20 Schritten und wir sind uns unter allem, was mit mir gewachsen ist, einig, dass die Straße schrumpft, unterstützt durch vorsichtige Maßnahmen. Meine spezielle Welt besteht aus gleichberechtigten Kindern und als mir gesagt wurde, dass sich unsere Größe und unser Gewicht geändert haben, antworte ich absolut lächerlich! . Massen-/Längen-Atom-Invarianz ist eine versteckte Behauptung von BBT (es ist unvermeidlich und es wurde nie bewiesen, und nicht explizit gemacht, macht es noch schlimmer). Columbia, bitte lesen Sie das Argument sorgfältig durch und versuchen Sie, einen Fehler zu finden. Es sollte ganz einfach sein.

Die Ruhemassen sind sicher, da sie den Grundzuständen von QM-Systemen entsprechen, bei denen die Energie sicher ist. Es gilt für jedes System - "elementar" oder zusammengesetzt. Hohe Temperaturen können die Energieunsicherheit erzeugen und die "gemessene" Masse beeinflussen.

Die Massen-"Messung" kann indirekt über präzise Übergänge erfolgen, die mit theoretischen Formeln ausgedrückt werden, die die Masse beinhalten.

Viele aktuelle Theorien verwenden nicht einfach die experimentellen Daten zu Massen und Ladungen, und es handelt sich offensichtlich nicht um ein Naturmerkmal, sondern um eine menschliche Unvollkommenheit. Wenn Sie Mareks Antwort lesen, werden Sie erfahren, dass, sobald Marek nicht alle Teilchen kennt, die die Natur hervorbringen kann, er und seine Theorie nicht falsch liegen können. Also laufen Massen und Ladungen für ihn, sie erledigen seine Besorgungen. Und die Hauptaufgabe besteht darin, die experimentellen Daten mit einer falschen Theorie zu beschreiben. Schwierige Aufgabe, aber glücklicherweise mit Hilfe von Laufkonstanten machbar.

EDIT: Für diejenigen, die nicht wissen, dass die meisten "unserer Theorien" nicht renormierbar sind, ist das übliche Blabla über "Skalenabhängigkeit" überhaupt nicht anwendbar (es hilft nicht).

EDIT 2: Ich sehe, dass Downvoter die Ruhemassen nicht in Ruhe lassen wollen.

Würden Sie also sagen, dass die Renormalisierung keine physikalische Bedeutung hat? Bleiben geladene Teilchen in diesem Sinne in einer Wolke virtueller Kopien ihrer selbst und ihres eigenen Antiteilchens verhüllt oder nicht?
@ jaskey13: Die Renormalisierung korrigiert aufgrund ihres Zwecks falsche Ergebnisse. Noch nicht renormierte Theorie liefert zu schlechte Ergebnisse. Wer führt Renormalisierungen durch? Wir sind es, nicht die Natur, nicht die Teilchen selbst. Die physikalische Bedeutung von Renormalisierungen besteht darin, vernünftige Ergebnisse aus schlechten zu erhalten. Dies ist ein menschliches Eingreifen in schlechte Lösungen. Da ist überhaupt keine Physik drin. Und es gibt keine Vakuumpolarisation. Eine andere Sache ist, dass wir auf diese Weise manchmal vernünftige Ergebnisse erzielen. Es bedeutet, dass eine andere, "renormalisierte" Theorie gut ist und irgendwo in der Nähe ist. Wir haben es einfach nicht störungsfrei gefunden.