Ich habe Michio Kakus Beyond Einstein gelesen . Darin, glaube ich, erklärt er, dass Physiker, wenn sie ein Teilchen als geometrischen Punkt behandeln, bei der Berechnung der Stärke des Teilchenfelds, wenn man sich dem Teilchen nähert, auf unendlich enden.
Erstens, habe ich diesen Teil richtig verstanden?
Zweitens, wie versucht (in sehr einfachen Worten) die Renormalisierung, dies in der Quantenmechanik zu beheben? Wenn Sie eine Art Wortbild einfügen könnten, wäre das großartig. Die akzeptierte Antwort geht an die klarste Erklärung.
Aktualisieren
Ich bin in dem Buch etwas weiter gekommen (lol) und Kaku spricht über die Verwendung von Symmetrie, um die Divergenzen in der Mathematik zu beseitigen. Ich würde mich über eine Antwort freuen, die dies auch enthält. Danke Leute!
Der beste Weg, die Renormierung zu erklären, ist die Betrachtung dessen, was zunächst wie ein vollständiger Umweg aussieht: Mandelbrots fraktale Geometrie. Mandelbrots Geometrie wurde in den 1960er und 1970er Jahren entwickelt und ist die Schlüsselidee hinter den großen Fortschritten in der statistischen Physik in den frühen 1970er Jahren, die von Leo Kadanoff (meist unabhängig) entwickelt wurden, aber auch mit Alexander Polyakov, Michael Fisher, Kenneth Wilson und vielen anderen in Verbindung gebracht wurden in den 1970er und 1980er Jahren, aufbauend auf den klassischen Arbeiten von Fenyman und Onsager, und diese Ideen geben der Renormalisierungstheorie ihre moderne Form.
Die Grundidee lässt sich in einem Satz zusammenfassen: Renormierung ist die Analyse von mathematischen Objekten, deren fraktale Dimensionen bei kleinen Abständen entweder aufgrund nichtlinearer Wechselwirkungen anders sind als erwartet, oder sich ansatzweise von dem unterscheiden, was man erwartet, so dass die naive Skalierung modifiziert wird durch Logarithmen.
Sie gehört eigentlich zur reinen Mathematik, wurde aber fast ausschließlich innerhalb der Physik entwickelt, mit Ausnahme von Mandelbrot.
Wenn eine Größe x so von einer Größe y abhängt, dass eine Umskalierung von y durch eine Umskalierung von x kompensiert werden kann, dann stehen x und y in einem Potenzgesetz.
Wo C, sind Konstanten. Potenzgesetze sind wichtig, weil sie skalenfrei sind, was bedeutet, dass sobald Sie eine Skala für y gewählt haben, die Skala für x bestimmt wird, indem der Koeffizient des Potenzgesetzes auf 1 gesetzt wird, aber es gibt keine absolute Skala, keine absoluten Einheiten für y . Dies lässt sich am besten an Beispielen verdeutlichen.
Angenommen, Sie haben ein Pendel der Länge L und eine Masse, die am Ende schwingt. Die Periode des Pendels ist
Die Form dieser Relation gibt Ihnen keine Auskunft über irgendwelche atomaren Längenskalen. Welche Einheiten Sie auch immer für L wählen, Sie können geeignete Einheiten für T finden, indem Sie neu skalieren, damit der Koeffizient der Beziehung der Ordnung 1 entspricht.
Nehmen wir andererseits an, Sie betrachten die ungefähre Dichte der Atmosphäre, wenn Sie in die Höhe y steigen:
Die Abhängigkeit ist exponentiell, bestimmt also eine Längenskala, 1/A. Diese Längenskala ist durch ein Potenzgesetz mit den anderen Parametern wie der Dichte und der Erdbeschleunigung verknüpft, es handelt sich also nicht um eine atomare Längenskala, sondern um eine emergente.
Der Unterschied zwischen Potenzgesetzen und anderen Beziehungen kann aus der Dimensionsanalyse verstanden werden. Der Koeffizient eines Potenzgesetzes verwechselt Einheiten von x und Einheiten von y, sodass er eine gleichzeitige Neuskalierung beider durch kompensierende Beträge ermöglicht. Die Koeffizienten in einer beliebigen Beziehung wählen eine Variationsskala aus, sind also nicht skaleninvariant.
Wenn y eine winzige Diskretionsskala hat, wie die Länge eines Drahtes, gezählt in der Anzahl der Atome, erwarten Sie, dass das Verhalten von p bei großen Zahlen unabhängig von der zugrunde liegenden Diskretion ist. Das Messen der Abhängigkeit der Periode des Pendels von der Länge wird also nutzlos sein, um zu enthüllen, wie groß Atome sind.
Damit dies wahr ist, muss die Information in y eine Skalierungsgrenze erreichen, die Abhängigkeit von x von y muss auf kurze Distanzen unabhängig von der Kornskala sein, die das Kontinuum definiert.
Hier sind einige triviale Beispiele: let sei die atomare Größe, und der Parameter y ist ein ganzzahliges Vielfaches der atomaren Skala:
Wenn x eine Funktion von y ist, die dem Gesetz gehorcht
Dann für klein , du bekommst das , und das ist Standardkalkül. Wenn x das Gesetz befolgt
Dann für klein , Sie finden . In beiden Fällen ist die Änderung in in jedem Der Schritt wird durch die Änderung von y bestimmt, und die Schrittweite wird bei dieser Skalierung irrelevant.
Aber angenommen, Sie sind pervers und entscheiden sich, die x-Schritte anders zu skalieren
Dann als , erhalten Sie ein konstantes x! Die Größe x hört auf, sich zu ändern, wenn der Diskretheitsparameter auf Null geht. Sie brauchen genau die richtige Leistung um eine nichttriviale Beziehung zwischen x und y zu erhalten. Wenn Sie die falsche Kraft in die andere Richtung gewählt haben
Dann würde x bei jedem endlichen Wert von y as explodieren . Nur ein Exponent, nämlich der triviale Exponent 1, gibt die korrekte Kontinuumsgrenze an.
Dies sind die klassischen Rechenbeispiele für mikroskopische Skalierung. Das erste nichttriviale Beispiel ist, wenn x(y) die Summe einer zufälligen Größe ist, , die eine Zufallszahl zwischen -1 und 1 ist, an jeder diskreten Position. Dann möchten Sie die Grenze von nehmen der Summe von Zufallszahlen, um eine kontinuierliche Version eines Random Walk zu erhalten. Sie versuchen, das Kalkül-Ding zu machen:
Aber diese Wahl konvergiert gegen ein konstantes x in der Grenze des kleinen Epsilon. Der Grund ist, dass die Summe von N zufälligen Dingen nur so wächst , während Term unterdrückt ihn um 1/N. Um dies zu beheben, benötigen Sie also ein anderes Potenzgesetz
Dies definiert die stochastische Kalkülgrenze. Es gibt ein ganzes Gebiet der Mathematik, den Ito-Kalkül, der dieses Skalierungsgesetz nur für die Kontinuumsgrenze untersucht. Es ist wichtig in Bereichen wie dem Finanzwesen, wo Irrfahrten überall auftreten, da jeder Rohstoffpreis auf einem effizienten Markt mit begrenzten Schwankungen eine Irrfahrt sein muss.
Wenn Sie also ein diskretes System haben, wie eine Computersimulation, die diskrete Zeitschritte durchführt, können Sie eine konvergierende kontinuierliche Grenze kleiner Schritte finden, aber nur, wenn Sie das geeignete Skalierungsgesetz für die sich ändernden Größen wählen. Das Skalierungsgesetz für schwankende Größen unterscheidet sich von dem Skalierungsgesetz für stetig variierende Größen.
Für glatte Mengen, skaliert linear hinein , oder , und dies ist der einzige Fall, der in der gewöhnlichen Analysis untersucht wird. Stochastische Ito-Rechnung macht Maßstab als Quadratwurzel von , oder als . Mandelbrots Berater war Paul Levy, der die Theorie von Levy-Flügen oder zufälligen Spaziergängen mit Potenzgesetz-verteilten Schritten entwickelt hatte, so dass es eine gewisse Wahrscheinlichkeit für große Schritte gibt, die nicht verschwindet, wenn Sie eine Skalierungsgrenze nehmen. Bei Levy-Flügen wird die Kontinuumsgrenze durch Skalierung erhalten wie wo ist ein kontinuierlich einstellbarer Parameter.
Dies bedeutet, dass Mandelbrot eine wichtige neue Perspektive hatte – er verstand, dass in Naturphänomenen, wo das Kontinuum immer in großen Entfernungen als Annäherung an etwas Kleines und Körniges auftaucht, die Skalierungsgesetze nicht auf ganzzahlige Potenzen beschränkt werden mussten, oder sogar rationale Kräfte. Sie könnten beliebige Skalierungsgesetze haben, die unterschiedliche Kontinuumsgrenzen definieren. Dieses Verhalten würde die Regelmäßigkeiten von Schwankungen definieren, die Sie in der Natur sehen, wie die raue Form von Küsten oder die zerklüfteten Formen von Bergen.
Diese Ideen werden von Mandelbrot in "The Fractal Geometry of Nature" in einer für jedermann zugänglichen Weise entwickelt, da sie keine tiefen mathematischen Vorkenntnisse voraussetzen.
Betrachten Sie eine fraktale Form, nehmen Sie die Koch-Kurve für die Bestimmtheit. Wenn Sie die Länge der Kurve berechnen, müssen Sie die Länge des Lineals angeben, in Bezug auf das Sie die Länge berechnen. Wenn das Lineal klein wird, geht die Gesamtlänge der Kurve als Potenz ins Unendliche, wobei d die fraktale Dimension der Kurve ist.
Die Bedeutung davon ist nicht unklar – die Form ist bei kleinen Abständen unregelmäßig, so dass der Begriff der Länge unanwendbar ist, und die gewöhnlichen Skalierungsgesetze der Länge für differenzierbare Kurven, die die Anzahl der Kopien eines Lineals der Länge l betragen passen auf die Kurve divergiert als verletzt wird, und die Verletzung des Gesetzes steht im Exponenten.
Bei mikroskopisch kleinen fraktalen Formen ändern sich die Skalierungsgesetze, die man intuitiv am Beispiel differenzierbarer Formen erwarten würde, und ursprünglich endliche Größen wie die Länge werden unendlich. Darüber hinaus lässt sich der Prozess der Definition der fraktalen Form am bequemsten mit dem ausdrücken, was in der Physik als Regulator bezeichnet wird – mit einer fiktiven endlichen Länge l, die die Länge des Lineals ist, um die Form zu messen, und mit Blick auf Größen, die stabil sind das Limit .
Die Länge der Koch-Kurve macht also keinen Sinn, sie ist unendlich, aber der Koeffizient der Vergrößerung des Potenzgesetzes, das die Länge mit l in Beziehung setzt, ist endlich und ist das Hausdorff-Maß der Koch-Kurve, das Analoge Begriff der Länge für eine fraktale Kurve.
Stellen Sie sich eine statistisch schwankende Größe wie die Dichte einer Flüssigkeit im thermischen Gleichgewicht vor. Bei gewöhnlichen Temperaturen gibt es Schwankungen auf atomarer Ebene, und diese Schwankungen mitteln sich auf makroskopischer Ebene, sodass die Flüssigkeit einheitlich aussieht.
Aber wenn Sie den Druck und die Temperatur auf den kritischen Punkt Flüssigkeit/Gas abstimmen, werden die Schwankungen korreliert, so dass große makroskopische Brocken des Gas-Flüssigkeits-Hybrids in bestimmten Regionen eine höhere Dichte haben, während sie in anderen Regionen eine niedrige Dichte haben. Experimentell ist dies daran zu erkennen, dass eine klare Flüssigkeit am kritischen Punkt milchig weiß wird, weil die Dichteschwankungen auf der Skala der Lichtwellenlänge nun signifikant sind.
Um dieses System zu beschreiben, benötigen Sie die durchschnittliche Dichte über viele atomare Volumina als Funktion der Position. Definieren Sie die Langstreckendichtefunktion die durchschnittliche Dichte der Flüssigkeit an jedem Punkt über eine Kiste der Länge sein . Sie können ein Gitter der Größe l erstellen, und es gibt ein statistisches Gesetz, das Ihnen sagt, wie wahrscheinlich die Dichte bei einem bestimmten Wert ist, wenn Sie die Dichte an benachbarten Positionen berücksichtigen. Das statistische Gesetz hat die Form einer Wahrscheinlichkeitsverteilung für die Dichte an einem Ort x, wenn die Dichte an den Nachbarorten y gegeben ist.
Das Gesetz der Dichte lässt sich mathematisch wie folgt ausdrücken:
Dies hat eine einfache Bedeutung – die Dichte an einem Punkt hat einen Mittelwert, der durch den Wert der Nachbarn bestimmt wird, mit einem Gesamtzug zu einem bevorzugten Wert, der durch beschrieben wird . Die Form von kann als Polynom angesehen werden (dies wird später erklärt)
wobei der Parameter b positiv sein muss. Durch Einstellen des Parameters a können Sie einen Punkt erreichen, an dem die Fluktuationen auf allen Längenskalen auftreten, und an diesem Punkt kann das Gitter beliebig klein gemacht werden, und Sie finden eine Kontinuumsgrenze, wenn Sie skalieren passend.
Das Limit , genommen werden, damit die Schwankungen vom Gitter unabhängig werden. Der Parameter ist die fraktale Dimension von . Zum , hängt die fraktale Dimension des Felds nur von der Dimension ab und hat einen Wert. Aber für die tatsächliche Form von V wird die fraktale Dimension vom naiven Wert geändert.
Quantenfelder werden durch ein Feynman-Pfadintegral über Feldwerte definiert. Sie lassen sich auch so verstehen, dass sie die Schwankungen von Teilchen beschreiben, aber hier ist das Feldbild am besten.
Das Feynman-Weg-Integral besagt, dass man alle möglichen Quantenfeldfluktuationen zwischen dem Anfangszeitpunkt und dem Endzeitpunkt berücksichtigen muss, um die Quantenwahrscheinlichkeitsamplitude zu beschreiben, die von einem Zeitpunkt zum anderen übergeht. Dies ist die grundlegende Formulierung der Quantenmechanik im Feynman-Lagrange-Ansatz.
Aber es gibt eine einfache mathematische Beziehung zwischen quantenmechanischen Pfadintegralen nach Feynman (zumindest für bosonische Felder) und statistischen Verteilungen. Die beiden sind durch eine formale Methode namens Wick-Rotation oder imaginäre Zeitformulierung miteinander verbunden.
Die Wick-Rotation der gewöhnlichen Quantenmechanik ist der Ito-Kalkül der Brownschen Pfade. Die Wick-Rotation der Feldtheorie macht jede (bosonische Realaktions-)Feldtheorie zu einem statistischen System, dessen Skalierungsgesetze fraktale (oder anomale) Dimensionen haben. Die fraktalen Dimensionen bedeuten, dass das typische Feld in der Verteilung gleich aussieht, nachdem der Raum um L und das Feld um eine Potenz von L neu skaliert wurde.
In realistischen Quantenfeldtheorien in der vierdimensionalen Raumzeit werden die eigentlichen Skalierungsgesetze nur durch Logarithmen modifiziert. Diese Logarithmen sind das Zeichen für eine beginnende Exponentenänderung. Der Grund dafür ist, dass sich in 4 Dimensionen zwei Random Walks nur geringfügig schneiden. Wenn Sie zwei Random Walks auf einem Gitter betrachten, die an zwei Positionen mit festem Abstand voneinander beginnen, geht die Wahrscheinlichkeit, dass sie kollidieren, gegen Null als Logarithmus des Gitterabstands.
Ein Logarithmus ist nur der Grenzwert eines Exponenten für kleine Werte des Exponenten. Wenn Sie sich ein Potenzgesetz mit einem etwas anderen Exponenten ansehen
Die ursprüngliche Skaleninvarianz der Potenzgesetzbeziehung scheint durch die Logarithmen gebrochen, aber sie wird nur modifiziert. Wenn Sie y um einen Betrag skalieren , Sie skalieren durch , was gibt Änderungen an der Dimension von .
Die Größen in der vierdimensionalen Quantenfeldtheorie haben auf diese Weise infinitesimal modifizierte Dimensionen, in infinitesimalen Entfernungen, in denen die mit der Masse der Teilchen verbundene Längenskala nicht mehr sichtbar ist. Diese logarithmischen Skalierungskorrekturen machen die vierdimensionale Theorie sowohl mathematisch einfacher als auch konzeptionell schwieriger, da die neuen fraktalen Skalierungsgesetze nicht so offensichtlich sind.
In drei Dimensionen nehmen skalare Feldtheorien einfach anomale Dimensionen an. Eine der interessanteren Möglichkeiten zur Berechnung der fraktalen Dimensionen besteht darin, die bekannten Logarithmen in 4 Dimensionen zu verwenden, um die Abhängigkeit der fraktalen Dimension von der Raumdimension zu finden, und dies gibt Vorhersagen für die flüssigkeitskritische Skalierung, die mit experimentellen Daten und Computern übereinstimmen Simulationen sehr genau.
Tatsächlich besteht keine Notwendigkeit, Teilchen als Punkte zu betrachten. Wenn Sie an Teilchen wie an „Wolke“ denken, gibt es sowohl in der klassischen als auch in der Quantentheorie keine Unendlichkeiten.
Wenn Physiker beispielsweise ein quantenmechanisches Modell des Wasserstoffatoms bauen, betrachten sie das Elektron als eine Wolke aus negativer Ladung, die um das Proton herum verschmiert ist. Die mit diesem Modell erhaltenen numerischen Größen stimmen sehr gut mit dem Experiment überein.
Aber viele moderne Physiker verwenden Modelle, in denen Teilchen als punktförmig betrachtet werden. Dafür gibt es mindestens zwei Gründe.
Der erste Grund ist, dass, wenn jemand ein Modell verwenden möchte, bei dem Partikel nicht punktförmig sind, er oder sie die Struktur des Partikels definieren muss. Aber niemand kennt die interne Struktur der Partikel, also können sie sie nicht definieren, um sie im Modell zu verwenden. Bitte beachten Sie, dass sich die Physiker in einem vorherigen Beispiel des Wasserstoffatoms mit Atomen und nicht mit Teilchen befassen. Physiker waren in der Lage, ein solches Modell zu entwickeln, weil sie etwas über die innere Struktur des Atoms wussten (dh sie wussten, dass sich positiv geladene Protonen im Zentrum des Atoms befinden, Elektron um das Proton herum verschmiert ist, das elektrische Feld des Protons bekannt war usw.). Wir können das Gleiche nicht mit dem Teilchen machen, weil wir fast nichts darüber wissen, was sich im Inneren des Teilchens befindet.
Der zweite Grund ist folgender: Es gibt ein Modell, das für Kollisionen der Teilchen bei hohen Energien sehr gut funktioniert. Dieses Modell wird beispielsweise für Teilchenbeschleuniger wie den LHC verwendet. Die Entfernung, die das Teilchen in einem solchen Collider zurücklegt, ist sehr groß im Vergleich zu der Größe (falls vorhanden), die dem Teilchen selbst zugeordnet werden kann. Daher ist es logisch, Partikel in diesem Modell als punktförmige Objekte zu betrachten, da die Größe des Partikels selbst FAST keine Rolle spielt.
Ich habe "FAST" geschrieben, weil es eine Rolle spielt, wenn man versucht, das Modell nicht auf eine Anzahl sehr schneller Teilchen anzuwenden, die mit sehr hohen Energien kollidieren, sondern auf ein Teilchen SELBST. Zum Beispiel legt ein ruhendes Teilchen keine große Entfernung zurück, und seine Gesamtenergie ist nicht viel größer als seine Eigenenergie (was ist wie du wahrscheinlich weißt). In diesem Fall gibt es keine Entschuldigung dafür, Partikel als punktförmiges Objekt zu betrachten, und das Modell liefert keine aussagekräftigen Ergebnisse.
Also, wo kommen Unendlichkeiten her? Sie stammen aus der Vermutung, dass Teilchen punktförmig sind, und sie kommen sowohl in klassischen als auch in Quantentheorien vor. Sehen Sie, was Vladimir darüber geschrieben hat, um Einzelheiten zu erfahren.
Und das letzte, was mit Ihrer Frage zu tun hat: Was ist Renormalisierung?
Die Renormierung ist die folgende:
Im ersten Schritt wird das Teilchen NICHT als punktförmiges Objekt betrachtet. Physiker sagen, dass es eine Größe hat und führen Sie alle Berechnungen für dieses "große" Objekt durch. Natürlich erscheinen keine Unendlichkeiten.
Im zweiten Schritt trennen die Physiker die Terme, die von abhängen (die "Größe" des Partikels) von jenen Begriffen, die nicht davon abhängen .
Die Bedingungen, die nicht von der abhängen haben eine eigenständige physikalische Bedeutung und sind für die Beschreibung einiger (aber nicht aller!) Eigenschaften der Teilchen relevant. Sie werden genau berechnet.
im nächsten Schritt wird die Größe des Partikels kleiner und kleiner gemacht, dh gegen Null genähert wird. Jene Begriffe, die davon abhängen divergent sind, dh wenn Sie sich nähern bis Null wachsen sie ins Unendliche. Die Wahrheit ist, dass diese Begriffe für nichts verwendet werden, sie werden einfach fallen gelassen. Das Ziel des Renormalisierungsverfahrens besteht also darin, endliche Terme von den Gleichungen zu trennen und andere divergierende Terme zu beseitigen.
Durch die Verwendung der Renormierung können wir das Modell also "frei" von Divergenzen machen, aber wir können es immer noch nicht zur Berechnung einiger wichtiger Eigenschaften der Partikel verwenden. So lassen sich beispielsweise die Masse und die elektrische Ladung des Teilchens nicht berechnen, da uns das Modell keine Kriterien zur Identifizierung dieser Größen liefert. Darüber hinaus sind die Teilchen, von denen bekannt ist, dass sie unterschiedliche Massen haben (wie Elektron und Myon), in Bezug auf dieses Modell nicht unterscheidbar.
Die Punktteilchenidealisierung, die zu den Unendlichkeiten führt, wird entfernt, indem eine kleine Störung (große Energiegrenze = kleine Entfernungsgrenze) in das Problem eingeführt wird, die von der Energiegrenzenskala abhängt . So haben wir eine Familie von Modellen je nach und die ursprünglichen Parameter des Modells. Die Physik sollte unabhängig davon sein, wo genau der Grenzwert angewendet wird, da es keine Rolle spielen sollte, wie klein das Partikel ist, sobald es klein genug ist.
Die in einem Modell enthaltene Physik muss unabhängig von den Parametern sein, die zufällig in dem bestimmten Modell verwendet werden. In vielen interessanten Fällen können die experimentellen Daten empirisch in Bezug auf einige wenige physikalische Schlüsselparameter beschrieben werden, wie z. B. grundlegende beobachtbare Massen und Ladungen. Diese unterscheiden sich im Allgemeinen von den Massen- und Ladungskoeffizienten, die in bestimmten Modellen vorkommen. Um diese in einem allgemeinen Zusammenhang zu unterscheiden, bezeichnet man die modellabhängigen Koeffizienten – wie die oben erwähnten Quarkmassen – als nackte Parameter und die für die physikalische Parametrisierung gewählten modellunabhängigen Parameter – messbare Massen, Ladungen etc., bezogen direkt zum Experimentieren – als renormierte oder gekleidete Parameter.
Der Zweck der Renormierung besteht darin, die -abhängige Familie von Hamiltonoperatoren in einer Weise, dass man physikalische Parameter auf eine numerisch robuste Weise anpassen kann, die im Wesentlichen unabhängig von ist (sobald es groß genug ist), so dass man am Ende der Berechnungen die Grenze nehmen kann ohne Schwierigkeiten.
Wie das geht, ist in http://arnold-neumaier.at/ms/ren.pdf elementar erklärt - das einfachste Beispiel ist ein 2-Zustandssystem!
Weitere möglicherweise hilfreiche Erklärungen (manche elementar, andere weniger) finden sich in Kapitel B5: Divergenzen und Renormierung von Eine FAQ zur Theoretischen Physik .
Ja, das Coulomb-Wechselwirkungspotential zweier Teilchen strebt gegen unendlich, wenn sich zwei punktförmige Teilchen annähern, ihre relative Entfernung ist. Es stellt kein Problem dar, wenn die Kraft abstoßend ist, beispielsweise bei Teilchenkollisionen, da der Energieerhaltungssatz verhindert, dass sich die kollidierenden Teilchen zu nahe aneinander annähern. Es stellt ein Problem dar, wenn man eine anziehende Kraft und gebundene Zustände von Teilchen betrachtet. In gebundenen Zuständen bewegen sich die Teilchen nebeneinander, und sobald sie die elektromagnetischen Wellen abstrahlen, kommen sie sich immer näher. Die abgestrahlte Energie ist die Differenz zwischen zwei Positionen, so etwas wie , also divergiert es, wenn die Teilchen einander zu nahe kommen. Es entspricht nicht Experimenten mit endlichem Energieaustausch und dies repräsentiert die Krise der klassischen Elektrodynamik.
In der Quantenmechanik werden die Teilchen durch Wellen ersetzt. Wellen in geschlossenen Systemen haben ein diskretes Spektrum der richtigen (Resonanz-)Frequenzen. Diese Frequenzen bestimmen das Energiespektrum, das in der QM diskret wird. Es gibt den sogenannten Grundzustand, in dem die Bewegung noch möglich ist, aber die Energie ihr Minimum annimmt. Im Grundzustand kann das System seine Energie nicht mehr abgeben. Dank einer nicht trivialen Bewegung in diesem Zustand können die Teilchen (wenn wir von punktförmigen Teilchen sprechen) nicht dauerhaft zu nahe beieinander bleiben, also der Abstand ist nicht als Dauerzustand erreichbar. Sie sagen, es gibt "Wolken" anstelle von Flugbahnen. In Atomen ist die Wolkengröße viel größer als sogar die richtige Protonengröße.
Die Renormierung der Fundamentalkonstanten ist etwas anderes und betrifft Modifikationen ("Reparatur") der Berechnungsergebnisse in einigen schlecht konstruierten Theorien.
Chris Gerig
Ron Maimon
rg
Ron Maimon
Murod Abdukhakimov
John
Benutzer26143