QM und Renormierung (Laie)

Ich habe Michio Kakus Beyond Einstein gelesen . Darin, glaube ich, erklärt er, dass Physiker, wenn sie ein Teilchen als geometrischen Punkt behandeln, bei der Berechnung der Stärke des Teilchenfelds, wenn man sich dem Teilchen nähert, auf unendlich enden.

Erstens, habe ich diesen Teil richtig verstanden?

Zweitens, wie versucht (in sehr einfachen Worten) die Renormalisierung, dies in der Quantenmechanik zu beheben? Wenn Sie eine Art Wortbild einfügen könnten, wäre das großartig. Die akzeptierte Antwort geht an die klarste Erklärung.

Aktualisieren

Ich bin in dem Buch etwas weiter gekommen (lol) und Kaku spricht über die Verwendung von Symmetrie, um die Divergenzen in der Mathematik zu beseitigen. Ich würde mich über eine Antwort freuen, die dies auch enthält. Danke Leute!

Das Problem, das ich bei dieser Frage nicht mag, ist, dass ich nicht glaube, dass eine "Laienerklärung" der Erklärung der Renormalisierung gerecht wird ... Ich meine, selbst der Versuch, QM in Laienbegriffen zu erklären, ist schrecklich. Im Wesentlichen verwendet die Renormalisierung keine "einfachen Begriffe", aber wenn Sie sehr vage sein wollen, können Sie sagen: "Nun, wenn Sie eine unendliche Menge nehmen und sie durch unendlich teilen, ist es nicht unbedingt mehr unendlich und kann a sein endliche Zahl" ... und das ist es, was die Renormalisierung "irgendwie tut".
@Chris: Renormalisierung kann leicht von Laien erklärt werden, wenn Sie nur sagen, was es in modernen Wilsonschen Begriffen ist. Die Unendlichkeit / Unendlichkeit-Erklärung, die Sie oben geben, ist nicht gut, weil sie nicht wahr ist - die unendlichen Mengen sind einfach nicht besonders interessant oder relevant, das Letzte ist ein endliches Objekt.
Könnte man sich das nicht als eine Divergenz von Integralen vorstellen, die wir nicht divergieren wollen?
@rg: Mein Problem mit der Beschreibung ist, dass die "divergenten Integrale" nur bei großen k divergent sind, dh bei kleinen Gitterabständen, und diese Divergenz normalerweise kein Problem bei der Annahme der kleinen Abstandsgrenze widerspiegelt. Die perturbative und die nicht-perturbative Renormierung sind unterschiedliche Ideen, und die nicht-perturbative Renormierung ist grundlegender. Wenn Sie eine Kontinuumsgröße haben, müssen Sie sie als Grenze von etwas Regularisiertem wie einem Gitter definieren, und das gilt für die Infinitesimalrechnung ebenso wie für die Quantenfeldtheorie. Aber die Leute vergessen, dass sie es in Kalkül gemacht haben!
@John Welche Art von Symmetrie hast du im Sinn? Supersymmetrie?
@MurodAbdukhakimov es war im Zusammenhang mit der Vereinigung der elektromagnetischen, schwachen und starken Kräfte in QM vor der Stringtheorie.
Tatsächlich erscheint die Renormalisierung nicht in QM, sondern nur in QFT ...

Antworten (4)

Der beste Weg, die Renormierung zu erklären, ist die Betrachtung dessen, was zunächst wie ein vollständiger Umweg aussieht: Mandelbrots fraktale Geometrie. Mandelbrots Geometrie wurde in den 1960er und 1970er Jahren entwickelt und ist die Schlüsselidee hinter den großen Fortschritten in der statistischen Physik in den frühen 1970er Jahren, die von Leo Kadanoff (meist unabhängig) entwickelt wurden, aber auch mit Alexander Polyakov, Michael Fisher, Kenneth Wilson und vielen anderen in Verbindung gebracht wurden in den 1970er und 1980er Jahren, aufbauend auf den klassischen Arbeiten von Fenyman und Onsager, und diese Ideen geben der Renormalisierungstheorie ihre moderne Form.

Die Grundidee lässt sich in einem Satz zusammenfassen: Renormierung ist die Analyse von mathematischen Objekten, deren fraktale Dimensionen bei kleinen Abständen entweder aufgrund nichtlinearer Wechselwirkungen anders sind als erwartet, oder sich ansatzweise von dem unterscheiden, was man erwartet, so dass die naive Skalierung modifiziert wird durch Logarithmen.

Sie gehört eigentlich zur reinen Mathematik, wurde aber fast ausschließlich innerhalb der Physik entwickelt, mit Ausnahme von Mandelbrot.

Potenzgesetze

Wenn eine Größe x so von einer Größe y abhängt, dass eine Umskalierung von y durch eine Umskalierung von x kompensiert werden kann, dann stehen x und y in einem Potenzgesetz.

x = C j a

Wo C, a sind Konstanten. Potenzgesetze sind wichtig, weil sie skalenfrei sind, was bedeutet, dass sobald Sie eine Skala für y gewählt haben, die Skala für x bestimmt wird, indem der Koeffizient des Potenzgesetzes auf 1 gesetzt wird, aber es gibt keine absolute Skala, keine absoluten Einheiten für y . Dies lässt sich am besten an Beispielen verdeutlichen.

Angenommen, Sie haben ein Pendel der Länge L und eine Masse, die am Ende schwingt. Die Periode des Pendels ist

T = 2 π L g

Die Form dieser Relation gibt Ihnen keine Auskunft über irgendwelche atomaren Längenskalen. Welche Einheiten Sie auch immer für L wählen, Sie können geeignete Einheiten für T finden, indem Sie neu skalieren, damit der Koeffizient der Beziehung der Ordnung 1 entspricht.

Nehmen wir andererseits an, Sie betrachten die ungefähre Dichte der Atmosphäre, wenn Sie in die Höhe y steigen:

ρ ( j ) = C e EIN j

Die Abhängigkeit ist exponentiell, bestimmt also eine Längenskala, 1/A. Diese Längenskala ist durch ein Potenzgesetz mit den anderen Parametern wie der Dichte und der Erdbeschleunigung verknüpft, es handelt sich also nicht um eine atomare Längenskala, sondern um eine emergente.

Der Unterschied zwischen Potenzgesetzen und anderen Beziehungen kann aus der Dimensionsanalyse verstanden werden. Der Koeffizient eines Potenzgesetzes verwechselt Einheiten von x und Einheiten von y, sodass er eine gleichzeitige Neuskalierung beider durch kompensierende Beträge ermöglicht. Die Koeffizienten in einer beliebigen Beziehung wählen eine Variationsskala aus, sind also nicht skaleninvariant.

Skalierungsgrenzen

Wenn y eine winzige Diskretionsskala hat, wie die Länge eines Drahtes, gezählt in der Anzahl der Atome, erwarten Sie, dass das Verhalten von p bei großen Zahlen unabhängig von der zugrunde liegenden Diskretion ist. Das Messen der Abhängigkeit der Periode des Pendels von der Länge wird also nutzlos sein, um zu enthüllen, wie groß Atome sind.

Damit dies wahr ist, muss die Information in y eine Skalierungsgrenze erreichen, die Abhängigkeit von x von y muss auf kurze Distanzen unabhängig von der Kornskala sein, die das Kontinuum definiert.

Hier sind einige triviale Beispiele: let ϵ sei die atomare Größe, und der Parameter y ist ein ganzzahliges Vielfaches der atomaren Skala:

j = n ϵ

Wenn x eine Funktion von y ist, die dem Gesetz gehorcht

x ( j + ϵ ) = x ( j ) + ϵ j

Dann für klein ϵ , du bekommst das x ( j ) = j 2 2 , und das ist Standardkalkül. Wenn x das Gesetz befolgt

x ( j + ϵ ) = x ( j ) + ϵ x ( j )

Dann für klein ϵ , Sie finden x ( j ) = C e j . In beiden Fällen ist die Änderung in x in jedem ϵ Der Schritt wird durch die Änderung von y bestimmt, und die Schrittweite wird bei dieser Skalierung irrelevant.

Aber angenommen, Sie sind pervers und entscheiden sich, die x-Schritte anders zu skalieren

x ( j + ϵ ) = x ( j ) + ϵ 2 x ( j )

Dann als ϵ 0 , erhalten Sie ein konstantes x! Die Größe x hört auf, sich zu ändern, wenn der Diskretheitsparameter auf Null geht. Sie brauchen genau die richtige Leistung ϵ um eine nichttriviale Beziehung zwischen x und y zu erhalten. Wenn Sie die falsche Kraft in die andere Richtung gewählt haben

x ( j + ϵ ) = x ( j ) + ϵ .5 x ( j )

Dann würde x bei jedem endlichen Wert von y as explodieren ϵ 0 . Nur ein Exponent, nämlich der triviale Exponent 1, gibt die korrekte Kontinuumsgrenze an.

Dies sind die klassischen Rechenbeispiele für mikroskopische Skalierung. Das erste nichttriviale Beispiel ist, wenn x(y) die Summe einer zufälligen Größe ist, η ( j ) , die eine Zufallszahl zwischen -1 und 1 ist, an jeder diskreten Position. Dann möchten Sie die Grenze von nehmen ϵ 0 der Summe von Zufallszahlen, um eine kontinuierliche Version eines Random Walk zu erhalten. Sie versuchen, das Kalkül-Ding zu machen:

x ( j + ϵ ) = x ( j ) + ϵ η ( j )

Aber diese Wahl konvergiert gegen ein konstantes x in der Grenze des kleinen Epsilon. Der Grund ist, dass die Summe von N zufälligen Dingen nur so wächst N , während ϵ Term unterdrückt ihn um 1/N. Um dies zu beheben, benötigen Sie also ein anderes Potenzgesetz ϵ

x ( j + ϵ ) = x ( j ) + ϵ 1 / 2 η ( j )

Dies definiert die stochastische Kalkülgrenze. Es gibt ein ganzes Gebiet der Mathematik, den Ito-Kalkül, der dieses Skalierungsgesetz nur für die Kontinuumsgrenze untersucht. Es ist wichtig in Bereichen wie dem Finanzwesen, wo Irrfahrten überall auftreten, da jeder Rohstoffpreis auf einem effizienten Markt mit begrenzten Schwankungen eine Irrfahrt sein muss.

Wenn Sie also ein diskretes System haben, wie eine Computersimulation, die diskrete Zeitschritte durchführt, können Sie eine konvergierende kontinuierliche Grenze kleiner Schritte finden, aber nur, wenn Sie das geeignete Skalierungsgesetz für die sich ändernden Größen wählen. Das Skalierungsgesetz für schwankende Größen unterscheidet sich von dem Skalierungsgesetz für stetig variierende Größen.

Für glatte Mengen, δ x skaliert linear hinein δ j , oder ϵ , und dies ist der einzige Fall, der in der gewöhnlichen Analysis untersucht wird. Stochastische Ito-Rechnung macht δ x Maßstab als Quadratwurzel von δ j , oder als ϵ . Mandelbrots Berater war Paul Levy, der die Theorie von Levy-Flügen oder zufälligen Spaziergängen mit Potenzgesetz-verteilten Schritten entwickelt hatte, so dass es eine gewisse Wahrscheinlichkeit für große Schritte gibt, die nicht verschwindet, wenn Sie eine Skalierungsgrenze nehmen. Bei Levy-Flügen wird die Kontinuumsgrenze durch Skalierung erhalten δ x wie ϵ a wo a ist ein kontinuierlich einstellbarer Parameter.

Dies bedeutet, dass Mandelbrot eine wichtige neue Perspektive hatte – er verstand, dass in Naturphänomenen, wo das Kontinuum immer in großen Entfernungen als Annäherung an etwas Kleines und Körniges auftaucht, die Skalierungsgesetze nicht auf ganzzahlige Potenzen beschränkt werden mussten, oder sogar rationale Kräfte. Sie könnten beliebige Skalierungsgesetze haben, die unterschiedliche Kontinuumsgrenzen definieren. Dieses Verhalten würde die Regelmäßigkeiten von Schwankungen definieren, die Sie in der Natur sehen, wie die raue Form von Küsten oder die zerklüfteten Formen von Bergen.

Diese Ideen werden von Mandelbrot in "The Fractal Geometry of Nature" in einer für jedermann zugänglichen Weise entwickelt, da sie keine tiefen mathematischen Vorkenntnisse voraussetzen.

Fraktale geometrische Skalierung

Betrachten Sie eine fraktale Form, nehmen Sie die Koch-Kurve für die Bestimmtheit. Wenn Sie die Länge der Kurve berechnen, müssen Sie die Länge des Lineals angeben, in Bezug auf das Sie die Länge berechnen. Wenn das Lineal klein wird, geht die Gesamtlänge der Kurve als Potenz ins Unendliche, 1 / l d wobei d die fraktale Dimension der Kurve ist.

Die Bedeutung davon ist nicht unklar – die Form ist bei kleinen Abständen unregelmäßig, so dass der Begriff der Länge unanwendbar ist, und die gewöhnlichen Skalierungsgesetze der Länge für differenzierbare Kurven, die die Anzahl der Kopien eines Lineals der Länge l betragen passen auf die Kurve divergiert als L / l verletzt wird, und die Verletzung des Gesetzes steht im Exponenten.

Bei mikroskopisch kleinen fraktalen Formen ändern sich die Skalierungsgesetze, die man intuitiv am Beispiel differenzierbarer Formen erwarten würde, und ursprünglich endliche Größen wie die Länge werden unendlich. Darüber hinaus lässt sich der Prozess der Definition der fraktalen Form am bequemsten mit dem ausdrücken, was in der Physik als Regulator bezeichnet wird – mit einer fiktiven endlichen Länge l, die die Länge des Lineals ist, um die Form zu messen, und mit Blick auf Größen, die stabil sind das Limit l 0 .

Die Länge der Koch-Kurve macht also keinen Sinn, sie ist unendlich, aber der Koeffizient der Vergrößerung des Potenzgesetzes, das die Länge mit l in Beziehung setzt, ist endlich und ist das Hausdorff-Maß der Koch-Kurve, das Analoge Begriff der Länge für eine fraktale Kurve.

Fraktale Schwankungen in Phasenübergängen

Stellen Sie sich eine statistisch schwankende Größe wie die Dichte einer Flüssigkeit im thermischen Gleichgewicht vor. Bei gewöhnlichen Temperaturen gibt es Schwankungen auf atomarer Ebene, und diese Schwankungen mitteln sich auf makroskopischer Ebene, sodass die Flüssigkeit einheitlich aussieht.

Aber wenn Sie den Druck und die Temperatur auf den kritischen Punkt Flüssigkeit/Gas abstimmen, werden die Schwankungen korreliert, so dass große makroskopische Brocken des Gas-Flüssigkeits-Hybrids in bestimmten Regionen eine höhere Dichte haben, während sie in anderen Regionen eine niedrige Dichte haben. Experimentell ist dies daran zu erkennen, dass eine klare Flüssigkeit am kritischen Punkt milchig weiß wird, weil die Dichteschwankungen auf der Skala der Lichtwellenlänge nun signifikant sind.

Um dieses System zu beschreiben, benötigen Sie die durchschnittliche Dichte über viele atomare Volumina als Funktion der Position. Definieren Sie die Langstreckendichtefunktion ϕ ( x ) die durchschnittliche Dichte der Flüssigkeit an jedem Punkt über eine Kiste der Länge sein l . Sie können ein Gitter der Größe l erstellen, und es gibt ein statistisches Gesetz, das Ihnen sagt, wie wahrscheinlich die Dichte bei einem bestimmten Wert ist, wenn Sie die Dichte an benachbarten Positionen berücksichtigen. Das statistische Gesetz hat die Form einer Wahrscheinlichkeitsverteilung für die Dichte an einem Ort x, wenn die Dichte an den Nachbarorten y gegeben ist.

Das Gesetz der Dichte lässt sich mathematisch wie folgt ausdrücken:

Protokoll ( ρ ( x ) ) = < j , x > ( ϕ ( x ) ϕ ( j ) ) 2 + v ( ϕ )

Dies hat eine einfache Bedeutung – die Dichte an einem Punkt hat einen Mittelwert, der durch den Wert der Nachbarn bestimmt wird, mit einem Gesamtzug zu einem bevorzugten Wert, der durch beschrieben wird v ( ϕ ) . Die Form von v kann als Polynom angesehen werden (dies wird später erklärt)

v ( ϕ ) = a ϕ 2 + b ϕ 4

wobei der Parameter b positiv sein muss. Durch Einstellen des Parameters a können Sie einen Punkt erreichen, an dem die Fluktuationen auf allen Längenskalen auftreten, und an diesem Punkt kann das Gitter beliebig klein gemacht werden, und Sie finden eine Kontinuumsgrenze, wenn Sie skalieren ϕ passend.

Das Limit ϵ 0 , ϕ ϵ a ϕ genommen werden, damit die Schwankungen vom Gitter unabhängig werden. Der Parameter a ist die fraktale Dimension von ϕ . Zum v = 0 , hängt die fraktale Dimension des Felds nur von der Dimension ab und hat einen Wert. Aber für die tatsächliche Form von V wird die fraktale Dimension vom naiven Wert geändert.

Die Quantenfeldtheorie ist dasselbe

Quantenfelder werden durch ein Feynman-Pfadintegral über Feldwerte definiert. Sie lassen sich auch so verstehen, dass sie die Schwankungen von Teilchen beschreiben, aber hier ist das Feldbild am besten.

Das Feynman-Weg-Integral besagt, dass man alle möglichen Quantenfeldfluktuationen zwischen dem Anfangszeitpunkt und dem Endzeitpunkt berücksichtigen muss, um die Quantenwahrscheinlichkeitsamplitude zu beschreiben, die von einem Zeitpunkt zum anderen übergeht. Dies ist die grundlegende Formulierung der Quantenmechanik im Feynman-Lagrange-Ansatz.

Aber es gibt eine einfache mathematische Beziehung zwischen quantenmechanischen Pfadintegralen nach Feynman (zumindest für bosonische Felder) und statistischen Verteilungen. Die beiden sind durch eine formale Methode namens Wick-Rotation oder imaginäre Zeitformulierung miteinander verbunden.

Die Wick-Rotation der gewöhnlichen Quantenmechanik ist der Ito-Kalkül der Brownschen Pfade. Die Wick-Rotation der Feldtheorie macht jede (bosonische Realaktions-)Feldtheorie zu einem statistischen System, dessen Skalierungsgesetze fraktale (oder anomale) Dimensionen haben. Die fraktalen Dimensionen bedeuten, dass das typische Feld in der Verteilung gleich aussieht, nachdem der Raum um L und das Feld um eine Potenz von L neu skaliert wurde.

Renormierungslogarithmen

In realistischen Quantenfeldtheorien in der vierdimensionalen Raumzeit werden die eigentlichen Skalierungsgesetze nur durch Logarithmen modifiziert. Diese Logarithmen sind das Zeichen für eine beginnende Exponentenänderung. Der Grund dafür ist, dass sich in 4 Dimensionen zwei Random Walks nur geringfügig schneiden. Wenn Sie zwei Random Walks auf einem Gitter betrachten, die an zwei Positionen mit festem Abstand voneinander beginnen, geht die Wahrscheinlichkeit, dass sie kollidieren, gegen Null als Logarithmus des Gitterabstands.

Ein Logarithmus ist nur der Grenzwert eines Exponenten für kleine Werte des Exponenten. Wenn Sie sich ein Potenzgesetz mit einem etwas anderen Exponenten ansehen

x = j a + ϵ = j a j ϵ = j a e ϵ Protokoll j = j a ( 1 + ϵ Protokoll j + ϵ 2 2 Protokoll 2 j + . . . )

Die ursprüngliche Skaleninvarianz der Potenzgesetzbeziehung scheint durch die Logarithmen gebrochen, aber sie wird nur modifiziert. Wenn Sie y um einen Betrag skalieren EIN , Sie skalieren x durch EIN a + ϵ , was gibt ϵ Änderungen an der Dimension von x .

Die Größen in der vierdimensionalen Quantenfeldtheorie haben auf diese Weise infinitesimal modifizierte Dimensionen, in infinitesimalen Entfernungen, in denen die mit der Masse der Teilchen verbundene Längenskala nicht mehr sichtbar ist. Diese logarithmischen Skalierungskorrekturen machen die vierdimensionale Theorie sowohl mathematisch einfacher als auch konzeptionell schwieriger, da die neuen fraktalen Skalierungsgesetze nicht so offensichtlich sind.

In drei Dimensionen nehmen skalare Feldtheorien einfach anomale Dimensionen an. Eine der interessanteren Möglichkeiten zur Berechnung der fraktalen Dimensionen besteht darin, die bekannten Logarithmen in 4 Dimensionen zu verwenden, um die Abhängigkeit der fraktalen Dimension von der Raumdimension zu finden, und dies gibt Vorhersagen für die flüssigkeitskritische Skalierung, die mit experimentellen Daten und Computern übereinstimmen Simulationen sehr genau.

Wie immer gefällt mir die Antwort, aber das liegt daran, dass ich ein Physiker mit jahrelanger Ausbildung und kein "Laie" bin. Während ich (und anscheinend Sie) abstrakt in Bezug auf die Modellierung der Renormalisierung in der hochkulturellen Mathematik der Fraktale und Skalierungsgesetze denke, versteht jemand ohne eine anständige Grundlage in kritischen Systemen möglicherweise nicht, warum man überhaupt mit einer so bizarr komplexen Lösung beginnen könnte.
Ja, ein bisschen über meinen Kopf. Ich mag eine bildliche Darstellung, wie ich in der Frage erwähnt habe, und ich verstehe, was ein Fraktal ist, aber ich verstehe die Verbindung nicht, die hier hergestellt wird ... Obwohl ich die enorme Mühe schätze, die in diese Antwort gesteckt wurde!
"Auf 1 setzen"? Du meinst "Order 1" wie im Beispiel unten? Verwenden Sie skalenfrei austauschbar mit invariant? Was ist "das Verhalten des p", der Punkt? Was macht Sie verwenden ϵ , die Atomgröße, als Verschiebungsparameter (so dass wiederum das infinitesimale Verhältnis mit der physikalischen Grenze zusammenhängt)? Ich habe auch den Überblick verloren, warum Potenzgesetze etwas Besonderes sind, da Sie auch das exp-Beispiel verwenden. Ist das Lineare δ x , δ j Verhältnis das der Tangente? Können die Beziehungen mit nicht ganzzahligen Ints nicht in Funktionen integriert werden? ϵ Modifikationen? Betrachten Sie die ren. Verfahren hier?
@Nick Kidman: Mit auf 1 setzen meinte ich, Einheiten von x und y gemeinsam zu wählen, sodass der Koeffizient des Potenzgesetzes 1 ist. Dies bezieht die Dimension von x auf die von y, und das können Sie nur für ein Potenzgesetz tun . Das Verhalten von p ist ein Tipp- oder Bearbeitungsfehler. Der Grund, den ich benutze ϵ Weil es den Parameter angibt, der gegen Null geht, um kontinuierlichen Raum und Zeit zu erzeugen, muss es nicht atomare Größe sein, obwohl es oft so ist, es könnte auch die Planck-Skala oder sogar die Skala eines Sandkorns sein Granulare Physik. Es ist nur der Ort, an dem die Kontinuumsbeschreibung zusammenbricht.
@genneth: Ich weiß aus Erfahrung, dass Mandelbrots Buch ohne vorherige Mathematik zugänglich ist, dass die grundlegenden Phasenübergänge von jedem mit einem Computer in wenigen Stunden simuliert werden können und die anomalen Skalierungsgesetze im System mit eigenen Augen zu sehen sind sofort. Die Arbeiten von Kadanoff und Migdal sind zugänglicher als die Feynman-Diagrammmethoden von Wilson und Fisher, und obendrein aufschlussreicher und allgemeiner (aber beide sind wichtig). Es ist eine begrenzte Menge an Mathematik erforderlich, aber es ist High-School-Infinitesimalrechnung und Dimensionsanalyse, etwas Programmieren, keine Feynmanologie.
@ John: Wenn Sie sagen könnten, was genau über Ihrem Kopf liegt, würde dies helfen, die Antwort zu verdeutlichen. Die Antwort ist nur, dass bei schwankenden Mengen die Skalierungsgesetze der Analysis modifiziert werden und das exakte Interaktionsmodell bei einem Phasenübergang Ihnen sagt, was die neuen Skalierungsgesetze sind. Wenn diese Skalierungsgesetze denen eines Random Walk nahe kommen, haben Sie eine logarithmische Renormierung von Ladung und Masse, das Random-Walk-Partikelmodell funktioniert, mit Ausnahme einer langsamen Drift von Parametern mit Skalierung, die eine beginnende Potenzgesetzänderung ist, die sich in a verwandelt reales Potenzgesetz in niedrigeren Dimensionen.
Es sei darauf hingewiesen, dass eine vollständigere Beschreibung derselben Ideen und Beispiele in Kapitel 2 von „The Devil in the Details“ von Batterman zu finden ist.

Tatsächlich besteht keine Notwendigkeit, Teilchen als Punkte zu betrachten. Wenn Sie an Teilchen wie an „Wolke“ denken, gibt es sowohl in der klassischen als auch in der Quantentheorie keine Unendlichkeiten.

Wenn Physiker beispielsweise ein quantenmechanisches Modell des Wasserstoffatoms bauen, betrachten sie das Elektron als eine Wolke aus negativer Ladung, die um das Proton herum verschmiert ist. Die mit diesem Modell erhaltenen numerischen Größen stimmen sehr gut mit dem Experiment überein.

Aber viele moderne Physiker verwenden Modelle, in denen Teilchen als punktförmig betrachtet werden. Dafür gibt es mindestens zwei Gründe.

Der erste Grund ist, dass, wenn jemand ein Modell verwenden möchte, bei dem Partikel nicht punktförmig sind, er oder sie die Struktur des Partikels definieren muss. Aber niemand kennt die interne Struktur der Partikel, also können sie sie nicht definieren, um sie im Modell zu verwenden. Bitte beachten Sie, dass sich die Physiker in einem vorherigen Beispiel des Wasserstoffatoms mit Atomen und nicht mit Teilchen befassen. Physiker waren in der Lage, ein solches Modell zu entwickeln, weil sie etwas über die innere Struktur des Atoms wussten (dh sie wussten, dass sich positiv geladene Protonen im Zentrum des Atoms befinden, Elektron um das Proton herum verschmiert ist, das elektrische Feld des Protons bekannt war usw.). Wir können das Gleiche nicht mit dem Teilchen machen, weil wir fast nichts darüber wissen, was sich im Inneren des Teilchens befindet.

Der zweite Grund ist folgender: Es gibt ein Modell, das für Kollisionen der Teilchen bei hohen Energien sehr gut funktioniert. Dieses Modell wird beispielsweise für Teilchenbeschleuniger wie den LHC verwendet. Die Entfernung, die das Teilchen in einem solchen Collider zurücklegt, ist sehr groß im Vergleich zu der Größe (falls vorhanden), die dem Teilchen selbst zugeordnet werden kann. Daher ist es logisch, Partikel in diesem Modell als punktförmige Objekte zu betrachten, da die Größe des Partikels selbst FAST keine Rolle spielt.

Ich habe "FAST" geschrieben, weil es eine Rolle spielt, wenn man versucht, das Modell nicht auf eine Anzahl sehr schneller Teilchen anzuwenden, die mit sehr hohen Energien kollidieren, sondern auf ein Teilchen SELBST. Zum Beispiel legt ein ruhendes Teilchen keine große Entfernung zurück, und seine Gesamtenergie ist nicht viel größer als seine Eigenenergie (was ist E = m c 2 wie du wahrscheinlich weißt). In diesem Fall gibt es keine Entschuldigung dafür, Partikel als punktförmiges Objekt zu betrachten, und das Modell liefert keine aussagekräftigen Ergebnisse.

Also, wo kommen Unendlichkeiten her? Sie stammen aus der Vermutung, dass Teilchen punktförmig sind, und sie kommen sowohl in klassischen als auch in Quantentheorien vor. Sehen Sie, was Vladimir darüber geschrieben hat, um Einzelheiten zu erfahren.

Und das letzte, was mit Ihrer Frage zu tun hat: Was ist Renormalisierung?

Die Renormierung ist die folgende:

  1. Im ersten Schritt wird das Teilchen NICHT als punktförmiges Objekt betrachtet. Physiker sagen, dass es eine Größe hat λ und führen Sie alle Berechnungen für dieses "große" Objekt durch. Natürlich erscheinen keine Unendlichkeiten.

  2. Im zweiten Schritt trennen die Physiker die Terme, die von abhängen λ (die "Größe" des Partikels) von jenen Begriffen, die nicht davon abhängen λ .

  3. Die Bedingungen, die nicht von der abhängen λ haben eine eigenständige physikalische Bedeutung und sind für die Beschreibung einiger (aber nicht aller!) Eigenschaften der Teilchen relevant. Sie werden genau berechnet.

  4. im nächsten Schritt wird die Größe des Partikels kleiner und kleiner gemacht, dh λ gegen Null genähert wird. Jene Begriffe, die davon abhängen λ divergent sind, dh wenn Sie sich nähern λ bis Null wachsen sie ins Unendliche. Die Wahrheit ist, dass diese Begriffe für nichts verwendet werden, sie werden einfach fallen gelassen. Das Ziel des Renormalisierungsverfahrens besteht also darin, endliche Terme von den Gleichungen zu trennen und andere divergierende Terme zu beseitigen.

Durch die Verwendung der Renormierung können wir das Modell also "frei" von Divergenzen machen, aber wir können es immer noch nicht zur Berechnung einiger wichtiger Eigenschaften der Partikel verwenden. So lassen sich beispielsweise die Masse und die elektrische Ladung des Teilchens nicht berechnen, da uns das Modell keine Kriterien zur Identifizierung dieser Größen liefert. Darüber hinaus sind die Teilchen, von denen bekannt ist, dass sie unterschiedliche Massen haben (wie Elektron und Myon), in Bezug auf dieses Modell nicht unterscheidbar.

Woah! QCD ist nicht renormierbar? Jemand sollte wahrscheinlich Wilczek, Gross und Politzer informieren. en.wikipedia.org/wiki/Asymptotic_freedom
Abgesehen von dem letzten Teil, dass QCD nicht renormalisierbar ist, gefällt mir diese Antwort. (Ich bin mir ziemlich sicher, dass alle Teile des Standardmodells renormierbar sind, oder wird es nicht als gültige Theorie angesehen?) Abgesehen davon sieht es so aus, als würden sie nur ein paar verrückte mathematische Tricks anwenden, um das Fett zu trimmen, mit dem sie nicht umgehen können, und mit den anderen unter der ANNAHME arbeiten, dass sie auf dem richtigen Weg sind? Und wie passt Symmetrie dazu?
Abgesehen von der Behauptung, dass QCD nicht renormierbar ist, muss betont werden, dass diese Idee, eine Skala für Nichtkontinuität zu verwenden und die Grenze zu nehmen, wenn diese Skala gegen Null geht, von der Quantenfeldtheorie und der gewöhnlichen Analysis geteilt wird. Der einzige Unterschied besteht darin, dass das Skalierungsgesetz in der Analysis trivial ist und die mathematische Theorie (über viele Jahrhunderte) so weit ausgearbeitet wurde, dass jeder dachte, das Kontinuum sei mehr oder weniger verstanden. Das ist natürlich Unsinn, und Sie müssen jedes Mal, wenn Sie unterschiedliche Strukturen erhalten, zu denselben einschränkenden Verfahren zurückkehren, die das Kontinuum ergeben.
@John: Ja, ziemlich genau, eine Theorie, die nicht renormierbar ist, wird derzeit nicht als gültig angesehen, obwohl Physiker offen für die Idee sind, einen Weg zu finden, nicht renormierbare Theorien zum Funktionieren zu bringen. Alles im Standardmodell ist renormierbar; Schwerkraft ist diejenige, die es nicht ist.
Mea culpa, meine Herren. Ich wusste nicht, dass QCD renormalisierbar ist. Danke für wichtige Hinweise.
@Dimension10: Warum bearbeitest du diese Jungsfrage? Ich glaube nicht, dass das der richtige Ansatz ist.

Die Punktteilchenidealisierung, die zu den Unendlichkeiten führt, wird entfernt, indem eine kleine Störung (große Energiegrenze = kleine Entfernungsgrenze) in das Problem eingeführt wird, die von der Energiegrenzenskala abhängt Λ . So haben wir eine Familie von Modellen je nach Λ und die ursprünglichen Parameter des Modells. Die Physik sollte unabhängig davon sein, wo genau der Grenzwert angewendet wird, da es keine Rolle spielen sollte, wie klein das Partikel ist, sobald es klein genug ist.

Die in einem Modell enthaltene Physik muss unabhängig von den Parametern sein, die zufällig in dem bestimmten Modell verwendet werden. In vielen interessanten Fällen können die experimentellen Daten empirisch in Bezug auf einige wenige physikalische Schlüsselparameter beschrieben werden, wie z. B. grundlegende beobachtbare Massen und Ladungen. Diese unterscheiden sich im Allgemeinen von den Massen- und Ladungskoeffizienten, die in bestimmten Modellen vorkommen. Um diese in einem allgemeinen Zusammenhang zu unterscheiden, bezeichnet man die modellabhängigen Koeffizienten – wie die oben erwähnten Quarkmassen – als nackte Parameter und die für die physikalische Parametrisierung gewählten modellunabhängigen Parameter – messbare Massen, Ladungen etc., bezogen direkt zum Experimentieren – als renormierte oder gekleidete Parameter.

Der Zweck der Renormierung besteht darin, die Λ -abhängige Familie von Hamiltonoperatoren in einer Weise, dass man physikalische Parameter auf eine numerisch robuste Weise anpassen kann, die im Wesentlichen unabhängig von ist Λ (sobald es groß genug ist), so dass man am Ende der Berechnungen die Grenze nehmen kann Λ ohne Schwierigkeiten.

Wie das geht, ist in http://arnold-neumaier.at/ms/ren.pdf elementar erklärt - das einfachste Beispiel ist ein 2-Zustandssystem!

Weitere möglicherweise hilfreiche Erklärungen (manche elementar, andere weniger) finden sich in Kapitel B5: Divergenzen und Renormierung von Eine FAQ zur Theoretischen Physik .

Ja, das Coulomb-Wechselwirkungspotential zweier Teilchen 1 / r strebt gegen unendlich, wenn sich zwei punktförmige Teilchen annähern, r ihre relative Entfernung ist. Es stellt kein Problem dar, wenn die Kraft abstoßend ist, beispielsweise bei Teilchenkollisionen, da der Energieerhaltungssatz verhindert, dass sich die kollidierenden Teilchen zu nahe aneinander annähern. Es stellt ein Problem dar, wenn man eine anziehende Kraft und gebundene Zustände von Teilchen betrachtet. In gebundenen Zuständen bewegen sich die Teilchen nebeneinander, und sobald sie die elektromagnetischen Wellen abstrahlen, kommen sie sich immer näher. Die abgestrahlte Energie ist die Differenz zwischen zwei Positionen, so etwas wie Δ E = q 1 q 2 ( 1 r 2 1 r 1 ) , also divergiert es, wenn die Teilchen einander zu nahe kommen. Es entspricht nicht Experimenten mit endlichem Energieaustausch und dies repräsentiert die Krise der klassischen Elektrodynamik.

In der Quantenmechanik werden die Teilchen durch Wellen ersetzt. Wellen in geschlossenen Systemen haben ein diskretes Spektrum der richtigen (Resonanz-)Frequenzen. Diese Frequenzen bestimmen das Energiespektrum, das in der QM diskret wird. Es gibt den sogenannten Grundzustand, in dem die Bewegung noch möglich ist, aber die Energie ihr Minimum annimmt. Im Grundzustand kann das System seine Energie nicht mehr abgeben. Dank einer nicht trivialen Bewegung in diesem Zustand können die Teilchen (wenn wir von punktförmigen Teilchen sprechen) nicht dauerhaft zu nahe beieinander bleiben, also der Abstand r = 0 ist nicht als Dauerzustand erreichbar. Sie sagen, es gibt "Wolken" anstelle von Flugbahnen. In Atomen ist die Wolkengröße viel größer als sogar die richtige Protonengröße.

Die Renormierung der Fundamentalkonstanten ist etwas anderes und betrifft Modifikationen ("Reparatur") der Berechnungsergebnisse in einigen schlecht konstruierten Theorien.

Aber ich habe das Gefühl, dass es bei der Frage genau um die "Renormalisierung der Grundkonstanten" geht. Vielleicht irre ich mich?
Nein, nicht unbedingt die Konstanten, da ich nicht glaube, dass sich Kaku darauf bezog, sondern auf Berechnungen, die die Wechselwirkungen von Teilchen und Feldern beinhalten.
In der Literatur gibt es mehrere "Verständnisse von Renormierungen". Ich habe hier mein eigenes Spielzeugmodell: arxiv.org/abs/1110.3702