Strenge in der Quantenfeldtheorie

Die Quantenfeldtheorie ist ein weites Feld und hat den Ruf, Methoden zu verwenden, die mathematisch begehrenswert sind. Zum Beispiel das Arbeiten mit und Subtrahieren von Unendlichkeiten oder die Verwendung von Pfadintegralen, die im Allgemeinen keine mathematische Bedeutung haben (zumindest noch nicht) ect. Meine Frage ist ein wenig vage, aber ich bin daran interessiert zu hören, wie der Status der Strenge in QFT ist. Was ist bekanntermaßen mathematisch streng und konsistent, was ist bekanntermaßen nicht streng? Alle Beispiele und Referenzen sind willkommen.

Hinzugefügt: Nur um klarzustellen, dass ich mit rigoros alles gemeint habe, was ein Mathematiker als zufriedenstellend empfinden würde. Meine Frage bezog sich auch nicht auf Bücher mit einem (in gewissem Sinne) rigorosen Ansatz, obwohl dies begrüßt wurde. Es ging um konkrete Beispiele, was als mathematisch befriedigend gilt und was nicht. Beispielsweise kann die Quantisierung freier Felder, die die Klein-Gordon-Gleichung erfüllen, rigoros durchgeführt werden. Es gibt keine allgemeine mathematische Definition des Feynman-Pfadintegrals und so weiter.

Die Diskussion hier dreht sich darum, was streng ist. Ich habe eine andere Frage gestellt, warum QFT-Mathematik oft nur Heuristiken wie die alten Gesetze sind, selbst wenn sie ausgearbeiteter sind, QFT und Mitarbeiter behaupten, dass sie DIE ultimative (theoretische) Lösung liefern. Wie auch immer, nette Frage und nette Antworten

Antworten (7)

Deine Meinung

Arbeiten mit und Subtrahieren von Unendlichkeiten ... die im Allgemeinen keine mathematische Bedeutung haben

ist nicht wirklich richtig und scheint ein allgemeines Missverständnis darin zu enthalten. Die technischen Schwierigkeiten von QFT kommen nicht von Unendlichkeiten. Tatsächlich wurden seit Beginn der Mathematik Konzepte verwendet, die im Wesentlichen der Renormierung und Regularisierung entsprechen – siehe z. B. viele Artikel von Cauchy, Euler, Riemann usw. Tatsächlich hat GH Hardy ein Buch zum Thema divergente Reihen veröffentlicht :

http://www.amazon.com/Divergent-AMS-Chelsea-Publishing-Hardy/dp/0821826492

Es gibt sogar einen ganzen Zweig der Mathematik namens "Integrationstheorie" (von dem Dinge wie die Lebesgue-Integration eine Teilmenge sind), der diese Art von Problemen verallgemeinert. Es ist also überhaupt kein Problem, dass Unendlichkeiten auftauchen, in gewisser Weise werden sie aus Bequemlichkeit angezeigt.

Die Idee, dass Unendlichkeiten irgendetwas damit zu tun haben, QFT axiomatisch zu machen, ist also nicht richtig.

Das eigentliche Problem besteht aus formalerer Sicht darin, dass Sie QFTs über eine Art Pfadintegral konstruieren "wollen". Aber das Pfadintegral ist formal (dh für Mathematiker) ein Integral (im allgemeinen Sinn, der in Themen wie "Integrationstheorie" vorkommt) über einem ziemlich pathologisch aussehenden unendlich dimensionalen LCSC-Funktionsraum.

Der Versuch, ein vernünftiges Maß auf einem unendlich dimensionalen Funktionsraum zu definieren, ist problematisch (und die allgemeinen Eigenschaften dieser Räume scheinen nicht besonders gut verstanden zu sein). Sie stoßen auf Probleme, wie z. B. dass alle vernünftigen Mengen "zu klein" sind, um ein Maß zu haben, sich Sorgen um Maße pathologischer Mengen machen und sich Gedanken darüber machen, welche Eigenschaften Ihr Maß haben sollte, sich Sorgen machen, ob das " D ϕ „Begriff ist überhaupt ein Maß usw.

Wenn Sie versuchen, dieses Problem zu beheben, würden Sie bestenfalls auf ein Problem stoßen, wie Sie es in der Definition des Lebesgue-Integrals haben, wo es das Integral definiert und Sie einige mathematisch interessante Eigenschaften konstruieren, aber der größte Nutzen besteht darin, dass Sie den Riemann missbrauchen können integral in der Weise, wie Sie es wollten. Tatsächlich ist die Berechnung von Integralen aus der Definition des Lebesgue-Integrals im Allgemeinen nicht einfach. Dies ist nicht wirklich genug, um die Aufmerksamkeit zu vieler Physiker auf sich zu ziehen, da wir bereits eine Definition haben, die funktioniert, und es wäre schön, alle ihre formalen Eigenschaften zu kennen, und würde uns sicherlich einige überraschende Dinge sagen, aber es ist nicht klar, dass es so ist wäre im Allgemeinen so nützlich.

Aus algebraischer Sicht glaube ich, dass Sie Probleme haben, wenn Sie versuchen, divergierende Produkte von Operatoren zu definieren, die vom Renormierungsschema abhängen. Sie müssen also eine Familie von haben C -Algebren, die den Renormalisierungsgruppenfluss auf die richtige Weise respektiert, aber es scheint nicht so, als hätten die Leute versucht, dies auf vernünftige Weise zu tun.

Aus physikalischer Sicht interessiert uns das alles nicht, weil wir von Renormierung sprechen können und verlangen, dass unsere Antworten "physikalisch vernünftige" Eigenschaften haben. Das kann man auch mathematisch machen, aber die Mathematiker sind nicht daran interessiert, eine vernünftige Antwort zu bekommen; Was sie wollen, ist eine Reihe "vernünftiger Axiome", aus denen die vernünftigen Antworten folgen, also sind sie dazu verdammt, auf technische Schwierigkeiten zu stoßen, wie ich oben erwähnt habe.

Formal kann man jedoch nicht-wechselwirkende QFTs und quantenmechanische Pfadintegrale definieren. Es ist wahrscheinlich so, dass die formale Definition einer QFT in Reichweite dessen liegt, was wir tun könnten, wenn wir es wirklich wollten, aber es ist einfach kein überzeugendes Thema für die Leute, die verstehen, wie die Renormierung die Lösungen auf physikalisch vernünftige festlegt (Physiker) und so weiter Formale Aspekte sind nicht so gut verstanden, dass man den Formalismus "umsonst" bekommen könnte.

Mein Eindruck ist also, dass weder Physiker noch Mathematiker im Allgemeinen genug Wert darauf legen, zusammenzuarbeiten, um dieses Problem zu lösen, und es wird nicht gelöst, bis es als Folge des Verständnisses anderer Dinge "kostenlos" erledigt werden kann.


Bearbeiten:

Ich sollte auch kurz hinzufügen, dass CFTs und SCFTs mathematisch viel sorgfältiger definiert sind, und daher könnte eine vernünftige Alternative zu den klassischen Ideen, die ich oben erwähnt habe, darin bestehen, mit einer SCFT zu beginnen und eine allgemeine Feldtheorie als eine Art "kleine" Modifikation zu definieren davon, so gemacht, dass genau die richtigen Dinge klar definiert bleiben.

Ich habe Hardys Buch und zitiere es gegen das, was Sie gesagt haben. (Ich habe es einfach nicht dabei). Hardy war ein guter Mathematiker und wusste, dass die Art und Weise, wie Sie eine divergente Reihe „regularisieren“, die resultierende Summe drastisch beeinflusst. Der Grund, warum QFT damit durchkommt, ist die zugrunde liegende Annahme, dass die beteiligten Funktionen komplex und analytisch sind.
Ja, das ist ein Teil dessen, was ich meinte, als ich sagte, wir wollen unsere Antworten an "physikalisch vernünftigen" Lösungen messen. Obwohl komplexe Analytik im Allgemeinen eine zu starke Analytizitätseigenschaft für uns ist und Sie einige zusätzliche technische Annahmen benötigen, um sicherzustellen, dass die Dinge "physikalisch vernünftig" sind. Aber sich Gedanken über Eigenschaften in Bezug auf die Analytizität zu machen, ist aus dem unendlichdimensionalen POV heraus problematisch (denken Sie an die topologischen und messtheoretischen Eigenschaften analytischer Teilmengen dieser unendlichdimensionalen LCSC-Räume).
Außerdem sind die Pfade, über die Sie integrieren, der Brownschen Bewegung ähnlich, die nirgendwo differenzierbar sind. Aber Sie stoßen immer noch auf Probleme, weil andere Räume als der offensichtliche pathologisch sind ;). Ich glaube, Sie können ODEs und PDEs von diesem Standpunkt aus angehen (ich weiß nicht, ob viel damit gemacht wurde, weil es eine ziemlich perverse Sache ist), aber darüber nachzudenken, bringt eine ganze Reihe von Problemen mit sich, die nur sind schlimmer in diesem Fall von einem analytischen POV.
sehr gute Zusammenfassung; obwohl ich sagen muss, dass ich es extrem traurig und entmutigend finde, wenn ich kluge Physiker Dinge sagen höre wie: „Aus physikalischer Sicht interessiert uns das alles nicht, weil wir über Renormierung sprechen und unsere Antworten verlangen können haben physikalisch vernünftige Eigenschaften ... aber die Mathematiker sind nicht daran interessiert, eine vernünftige Antwort zu bekommen". Dies mag aus numerischer (vielleicht numerologischer?) Perspektive richtig sein, aber es ist zunächst einmal die völlig falsche Denkweise. Mathematische Konsistenz (oder ein klarer Weg dorthin) ist niemals ein Luxus. Es zu vermeiden ist
Obwohl ich als Mathematiker das Gefühl habe, Sie korrigieren zu müssen: Der richtige Ausdruck ist Maßtheorie, nicht "Integrationstheorie".

Erstens: Es gibt keine rigorose Konstruktion des Standardmodells, rigoros im Sinne der Mathematik (und nein, es gibt nicht viel Ambivalenz über die Bedeutung von Strenge in der Mathematik).

Das sind eine Menge Referenzen, die Daniel zitiert hat, ich werde versuchen, sie ein wenig einzuordnen :-)

Axiomatische (synonym: lokale oder algebraische) QFT versucht, Axiome für die Heisenberg-Sichtweise zu formulieren (Zustände sind statisch, Observable sind dynamisch). Es sind drei Sätze von Axiomen bekannt:

Grob beschreiben die Wightman-Axiome, wie sich Felder auf Observablen beziehen, die Osterwalder-Schrader-Axiome sind die Wightman-Axiome für die euklidische Feldtheorie, und die Haag-Kastler-Axiome umgehen Felder vollständig und beschreiben die Observablen an sich. Alle drei Sätze von Axiomen sind ungefähr äquivalent, was bedeutet, dass die Äquivalenz bewiesen wurde, manchmal mit zusätzlichen Annahmen, die Physiker für irrelevant halten.

"PCT, Spin and Statistics, and All That" war die erste Einführung in die Wightman-Axiome.

"Lokale Quantenphysik: Felder, Teilchen, Algebren" ist eine Einführung in die Haag-Kastler-Axiome, ebenso wie "Mathematische Theorie der Quantenfelder".

"Perturbative Quantum Electrodynamics and Axiomatic Field Theory" ist eine Beschreibung der QED aus Sicht der Haag-Kastler-Axiome.

„Introduction to Algebraic and Constructive Quantum Field Theory“ handelt von der Quantisierung vorgegebener klassischer Gleichungen im Sinne von Haag-Kastler.

"Quantum Physics: A Functional Integral Point of View" verwendet die Osterwalder-Schrader-Axiome.

Die 2D-konforme Feldtheorie kann beispielsweise mit den Osterwalder-Schrader-Axiomen axiomatisiert werden.

Die funktorielle Quantenfeldtheorie axiomatisiert den Schrödinger-Standpunkt , siehe zB hnLab zu FQFT .

Dazu gehören zum Beispiel topologische Quantenfeldtheorien, diese beschreiben im Wesentlichen Theorien mit endlichen Freiheitsgraden. Dieser Zweig hatte großen Einfluss auf die Mathematik, insbesondere im Hinblick auf die Differentialgeometrie und hier auf die Theorie der glatten 3D- und 4D-Mannigfaltigkeiten. Ich würde setzen

Daniel S. Freed (Autor), Karen K. Uhlenbeck: „Geometrie und Quantenfeldtheorie“

in dieser Kategorie.

"Geometrie und Quantenfeldtheorie"

Quantisierung klassischer Feldtheorien : Beachten Sie, dass die axiomatischen Ansätze nicht von klassischen Feldtheorien abhängen, die quantisiert werden müssen, sie öffnen die Türen für eine direkte Konstruktion von Quantensystemen ohne klassischen Spiegel. Der Lagrange-Ansatz für QFT ist ein Beispiel für einen Ansatz, der mit einer klassischen Feldtheorie beginnt, die quantisiert werden muss, wofür verschiedene Mittel verwendet werden können.

Ticciati: „Quantum Field Theory for Mathematicians“ ist eigentlich ohne viel Aufhebens eine ziemlich kanonische Einführung in die Lagrange-QFT.

Es gibt viel Material über die Geometrie klassischer Feldtheorien und Varianten, sie zu quantisieren, wie "geometrische Quantisierung".

Das Buch Welington de Melo, Edson de Faria: "Mathematical Aspects of Quantum Field Theory" ist ein Beispiel dafür.

Viel fortgeschrittener ist "Quantum Fields and Strings: A Course for Mathematicians (2 vols)"

Für das Wegintegral gibt es zwei Betrachtungsweisen:

  • Das Pfadintegral ist – zusammen mit den Feynman-Regeln – ein Buchführungsinstrument für ein Spiel namens Renormalisierung, mit dem Sie Zahlen nach geheimnisvollen Regeln berechnen können.

  • das Pfadintegral ist ein mathematisches Konstrukt wie ein „Maß“ – aber kein Maß im Sinne der heute bekannten Maßtheorie – das es zu entdecken und entsprechend zu definieren gilt.

AFAIK hat mit dem zweiten Standpunkt nicht viel Fortschritt gemacht, aber es gibt Leute, die daran arbeiten, zum Beispiel die Autoren des Buches "Mathematical Theory of Feynman Path Integrals: An Introduction". Viel mehr Material zur mathematischen Theorie der Pfadintegrale im nLab finden Sie hier .

Ich dachte, die Osterwalder-Schrader-Axiome beschreiben den integralen Ansatz des Euklidischen Pfades ... nicht das Heisenberg-Bild. Außerdem gibt es einige Unklarheiten bei der Quantisierung eines klassischen Feldes (selbst in der Quantenmechanik gibt es Unklarheiten im Quantisierungsverfahren; siehe zB das Groenewald-van Hove "no-go"-Theorem).

Hier ist meine Antwort aus Sicht der Physik der kondensierten Materie:

Die Quantenfeldtheorie ist eine Theorie, die den kritischen Punkt und den Nachbarn des kritischen Punkts eines Gittermodells beschreibt. (Gittermodelle haben eine strenge Definition).

Um also Quantenfeldtheorien rigoros zu definieren, muss man ihre UV-Vervollständigung finden.

Quantenfeldtheorien zu klassifizieren bedeutet, alle möglichen kritischen Punkte von Gittermodellen zu klassifizieren, was ein sehr wichtiges und sehr schwieriges Projekt ist.

(Man kann "Gittermodell" oben durch "nicht störungsreguliertes Modell" ersetzen)

Danke, können Sie auf einen allgemeinen Ausstellungs- / Übersichtsartikel über Gittermodelle und QFT hinweisen. Oder jede Quelle, die mir eine Idee geben kann.
Dies ist die gleiche Antwort wie physical.stackexchange.com/questions/4068/…
Warum sollte sich eine QFT unbedingt mit kritischen Punkten befassen? Ich verstehe das weder mathematisch noch physikalisch. Die QFT eines Bandisolators sollte ausreichend gut definiert sein
Die Quantenfeldtheorie ist eine Theorie, die den kritischen Punkt und den Nachbarn des kritischen Punkts beschreibt.
Die QFT eines Bandisolators ist gut definiert, da er einen UV-Abschluss hat.

Es gibt mehrere Bücher, die sich der QFT (und/oder der Eichtheorie) auf verschiedenen Ebenen der „mathematischen Strenge“ nähern (für eine Definition von „mathematischer Strenge“ – die Moshe gutheißen würde ;-).

Also, lassen Sie mich Ihnen eine Art „vorläufige Liste“ geben… sie ist keineswegs vollständig und auch nicht in einer bestimmten Reihenfolge, aber ich denke, sie kann den Weg für die weitere Arbeit ebnen.

  1. Lokale Quantenphysik: Felder, Teilchen, Algebren ;
  2. PCT, Spin und Statistiken und all das ;
  3. Endliche Quantenelektrodynamik: Der kausale Ansatz ;
  4. Perturbative Quantenelektrodynamik und Axiomatische Feldtheorie ;
  5. Quantenfeldtheorie für Mathematiker ;
  6. Quantenfeldtheorie ;
  7. Mathematische Aspekte der Quantenfeldtheorie ;
  8. Quantenmechanik und Quantenfeldtheorie: Eine mathematische Einführung ;
  9. Quantenfeldtheorie I: Grundlagen in Mathematik und Physik: Eine Brücke zwischen Mathematikern und Physikern (v. 1) und Quantenfeldtheorie II: Quantenelektrodynamik: Eine Brücke zwischen Mathematikern und Physikern ;
  10. Mathematische Theorie der Feynman-Pfadintegrale: Eine Einführung ;
  11. Einführung in die algebraische und konstruktive Quantenfeldtheorie ;
  12. Quantenphysik: Ein funktional integraler Standpunkt ;
  13. Quantenfelder und Strings: Ein Kurs für Mathematiker (2 Bände) ;
  14. Geometrie und Quantenfeldtheorie ;
  15. Mathematische Theorie der Quantenfelder .

Auf jeden Fall… da draußen gibt es noch viel mehr, nicht nur in Bezug auf Themen (Renormalisierung usw.), sondern auch in Bezug auf Artikel, Bücher und so weiter.

Es gibt also viel "mathematische Strenge" in QFT (und übrigens auch in der Stringtheorie), einschließlich verschiedener "Ebenen", die jedem Geschmack gefallen und ihm gerecht werden sollten.

PS: Es gibt hier andere Themen, die sich in der einen oder anderen Form mit diesem Thema befassen, zB Theorem von Haag und Praktische QFT-Berechnungen . Seien Sie also nicht schüchtern und schauen Sie sich um. :-)

@RonMaimon Heute, wie ist der Fortschritt?

Der Ruf von QFT, mathematisch unsolide Methoden zu verwenden, ist heutzutage nicht wirklich verdient. Sicherlich ist nicht alles unter perfekter analytischer Kontrolle, aber die Situation ist nicht wirklich viel schlimmer als in der Strömungsdynamik.

Insbesondere die Sache mit der „Subtraktion von Unendlichkeiten“ wird nicht mehr wirklich als Thema betrachtet. Die Mathematiker, die sich kürzlich damit befasst haben (wie Borcherds & Costello), sind im Grunde zu dem Schluss gekommen, dass die effektive Feldtheorie von Wilson diese Schwierigkeit löst. Sie können alle Berechnungen ausschließlich in Bezug auf „effektive“ Größen über große Entfernungen durchführen, die übrig bleiben, wenn Physiker Unendlichkeiten subtrahieren. Kurzdistanz-Unendlichkeiten stellen daher kein Problem dar, um Korrelationsfunktionen zu definieren; es gibt nichts Widersprüchliches an dem integralen Formalismus des grundlegenden Pfades.

Dies ist wirklich die gleiche Schlussfolgerung, zu der die konstruktiven Feldtheoretiker kamen, als sie in den 70er und 80er Jahren Beispiele aus niedrigeren Dimensionen untersuchten.

Die Herausforderung bei der rigorosen QFT ist der Umgang mit Infrarot-Divergenzen. Wenn Ihre Raumzeit ein unendliches Volumen hat, dann kann Ihr Feldsystem beliebig große Freiheitsgrade haben. Die Kopplung mit diesen Freiheitsgraden kann Ihnen Unendlichkeiten geben. Hier gibt es echte mathematische Probleme, aber sie entsprechen eher der Beschreibung der Lösungen einer Gleichung als der Beschreibung der Gleichung selbst. (Wirklich nicht triviale Dinge können passieren. In der QCD zum Beispiel gibt es Confinement: Viele der Observablen, von denen Sie naiverweise erwarten würden, dass sie in Bezug auf das Pfadintegralmaß integrierbar sind - wie die Observable, die ein freies Quark oder ein freies darstellt Gluon – nicht. Stattdessen sind die integrierbaren Observablen komplizierte Mischungen aus Quarks und Gluonen, wie Protonen, Neutronen und Glueballs.) ϕ 4 Pfadintegralmaß, sondern vom Beweis, dass es ist n -Punkt-Korrelationsfunktionen existieren tatsächlich.

Das bedeutet natürlich, dass die meisten Berechnungen von beobachtbaren Erwartungswerten – wie in der Gittereichtheorie – keiner strengen analytischen Kontrolle unterliegen. Konvergenz in der Simulation ist vorerst meist eine Frage des guten Urteilsvermögens.

Um irgendetwas rigoros über dieses Zeug zu sagen, müssen die Mathematiker mit ziemlicher Sicherheit die Renormierung in nicht störungsfreien Umgebungen (dh auf dem Gitter) besser in den Griff bekommen. Es gibt eine ganze Reihe von Mathematikern, die aktiv an diesem Thema arbeiten. Geometer und Topologen werden immer raffinierter in der topologischen Feldtheorie, während die Analytiker die statistische Feldtheorie aufgegriffen haben.

Ich denke, alles ist ausreichend streng, wenn Sie es nach den mathematischen Regeln tun.

Schummeln beginnt, wenn sie sagen: "Das Integral der Delta-Funktion zum Quadrat, obwohl es wie unendlich aussieht, muss aus den experimentellen Daten bestimmt werden." Es ist einfach lustig.

Eine ähnliche Unendlichkeit begegnete mir einmal bei einem einfacheren, aber exakt lösbaren Problem. Zuerst wollte ich Renormierungen durchführen (Bestimmung des Integralwerts aus experimentellen Daten), aber glücklicherweise gelang es mir, eine bessere anfängliche Annäherung zu wählen und die Störungskorrekturen zu verringern. Das Problem liegt also in der ersten Annäherung. Wenn es gut ist , dann sind die störenden Korrekturen klein . Ansonsten sind sie groß.

Ich habe auch eine Erklärung gefunden, warum Subtraktionen (Verwerfen von Korrekturen) manchmal funktionieren. Aus meiner jetzigen Sicht muss der QFT neu formuliert werden, da er schlecht konstruiert ist. Neuformuliertes QFT muss unterwegs nicht repariert werden.

Ich möchte darauf hinweisen, dass es verschiedene Probleme gibt, die von verschiedenen Standpunkten zu diesem Thema ausgehen. Es wäre sehr kompliziert, sie alle zu kommentieren, daher möchte ich mich auf eine bestimmte beschränken.

Als erste Bemerkung muss ich festhalten, dass niemand, der in der Mathematik arbeitet, Zweifel daran haben darf, was „rigoros“ bedeutet. Ich werde dies nicht kommentieren, da es scheint, dass es bereits klar erklärt wurde.

Zu Ihrer Frage möchte ich anmerken, dass QFT keine "einzigartige" Theorie ist, sondern ein Bündel mehrerer verschiedener, die aufgrund einiger intrinsischer Beschreibungen mehr und weniger miteinander verwandt sind. Zum Beispiel ist das "Verhalten" und der Aufbau der (reellen oder komplexen) Skalarfeldtheorie und der Eichtheorie ziemlich unterschiedlich. Dies ist eine Art natürliche Folge der Tatsache, dass die Klassische Feldtheorie (ClFT) (die bis zu einem gewissen Grad völlig rigoros ist, obwohl sie immer noch einige nichttriviale Probleme enthält) auch eine Sammlung mehrerer verschiedener Theorien ist, die eine allgemeine Geometrie teilen Beschreibung, die aber ihre eigenen besonderen Schwierigkeiten haben: Als besonderes Setting von ClFT können wir die klassische Mechanik, den Elektromagnetismus oder sogar die nichtabelsche Eichtheorie usw. erhalten. Lassen Sie mich auch hinzufügen, dass die allgemeine Philosophie, die ClFT zugrunde liegt, in gewissem Sinne als die einzige Möglichkeit erscheint, relativistische Erweiterungen der freien Situation zu konstruieren, als einen großen Unterschied zur klassischen Mechanik, in der Sie einem freien Teilchen jede Einschränkung hinzufügen können, ohne zu brechen jedes grundlegende Prinzip der Theorie. Ich gebe nur wieder, was P. Deligne und D. Freed im bereits erwähnten ersten Band von "QFT and Strings for Mathematicians" aussagen.

Was nun das Problem der Quantisierung jeder der speziellen Einstellungen betrifft, die Sie in ClFT berücksichtigen können, gibt es mehrere Probleme, mit denen Sie sich befassen müssen. Lassen Sie mich zwei unterschiedliche Aspekte des Problems betrachten: störungsbedingte und nicht störungsbedingte QFT. Wir können sagen, dass Ersteres (moralisch) ein Schatten von Letzterem ist. Darüber hinaus kann die perturbative QFT (pQFT) in vielen Situationen mathematisch streng entwickelt werden. Sie können den Artikel von R. Borcherds im arXiv "Renormalisierung und Quantenfeldtheorie" lesen (auch wenn einige der Ideen bereits in anderen Texten in der Literatur vorhanden waren und meiner Meinung nach hinter einigen Konstruktionen lauern). und Beweise des Autors, siehe etwa die Artikel von O. Steinmann, die auch von R. Brunetti, K. Fredenhagen usw. berücksichtigt wurden). In dieser Situation definiert er auf strenge Weise ein Objekt, das sich wie das Feynmann-Maß verhält ("über das Riesz-Theorem"), und er gibt eine sehr vollständige Beschreibung, wie die pQFT in mehreren Situationen beschrieben werden sollte. Das Problem bleibt jedoch, eine korrekte Formulierung der nicht-perturbativen QFT zu geben. Dies ist ein großes Problem, und nur wenige strenge Konstruktionen bis zur Dimension 2 (auch Dimension 3, aber wirklich wenige, soweit ich weiß. Es wäre schön, die Experten in diesem Punkt zu hören) wurden durchgeführt. Sie können das Buch von J. Glimm und A. Jaffe „Quantum Physics – a Functional Integral Point of View“ sehen. Tatsächlich tritt das Hauptproblem auf, wenn versucht wird, die Eichtheorie als Untersammlung von QFT-Situationen zu quantifizieren. Das Fehlen eines solchen allgemeinen Bildes bedeutet in der Tat, dass wir eigentlich nicht wissen, wie eine Quantenfeld-Gauge-Theorie wirklich aussieht (oder einfach ist, wenn Sie wollen). Insbesondere (ich erwähne dies, weil einige Leute argumentieren, dass das Folgende eine Folge davon ist, nur eine Störungsbeschreibung zu haben), zwei Hauptbehauptungen von Physikern über das Standardmodell (die in gewisser Weise verwandt sind), die Massenlücke und die Quarkbeschränkung, sind nicht bewiesen (das erstere stellt tatsächlich eines der Millennium-Preis-Probleme dar). Unnötig zu sagen, dass keines der physikalischen heuristischen Argumente eindeutig ausreichend ist. zwei Hauptbehauptungen der Physiker über das Standardmodell (die in gewissem Sinne miteinander verwandt sind), die Massenlücke und die Quarkeinschließung, sind nicht bewiesen (die erstere bildet tatsächlich eines der Millennium-Preis-Probleme). Unnötig zu sagen, dass keines der physikalischen heuristischen Argumente eindeutig ausreichend ist. zwei Hauptbehauptungen der Physiker über das Standardmodell (die in gewissem Sinne miteinander verwandt sind), die Massenlücke und die Quarkeinschließung, sind nicht bewiesen (die erstere bildet tatsächlich eines der Millennium-Preis-Probleme). Unnötig zu sagen, dass keines der physikalischen heuristischen Argumente eindeutig ausreichend ist.

Mathematiker sind sehr dumm, wenn es um "streng" in Bezug auf die Maßtheorie geht, und deshalb stecken sie fest. Das Problem beginnt, wenn Sie die Maßtheorie axiomatisieren müssen, um Zufallsauswahlen zu definieren. Es sollte keine harte Arbeit erforderlich sein, um eine konstruktive Maßnahme zu definieren (eine Auswahl, die Sie auf einem Computer durchführen können, oder eine Begrenzung davon), aber es gibt sie.
Die Verwendung disqualifizierender Adjektive ist völlig unnötig und irreführend, da die beteiligten Personen hier in gewissem Sinne irrelevant sind, was bedeutet, dass das, was wichtig ist, Gegenstand der Diskussion ist (dh die Strenge in QFT). Andererseits sind die Axiome der Maßtheorie völlig klar und selbst einem Mathematikstudenten im 2./3. Studienjahr wohlbekannt. Das ist nicht das Problem, um das wir uns kümmern. Was hier erwähnt wird, ist die (offensichtliche) Unfähigkeit (einiger) der gegenwärtigen mathematischen Werkzeuge, eine vollständige und korrekte Formulierung der störungsfreien QFT im Allgemeinen bereitzustellen.
Die Sprache ist notwendig, um Menschen zu beschämen, um Veränderungen zu motivieren. Die „Axiome der Maßtheorie“ sind nicht das Problem, das Problem ist, dass die beteiligte Maßtheorie überhaupt Axiome braucht! Sie brauchen eine Sigma-Algebra im Raum, und es gibt keine einfache Sigma-Algebra im unbekannten Raum der Feldverteilungen a priori. Das bedeutet, dass die Leute das Maß auf eine dumme Umwege definieren, während es ein einfaches logisches Ergebnis (Theorem von Solovay) gibt, das garantiert, dass dies überhaupt kein Problem ist. Andere Probleme bleiben, aber das Problem wird zu einer Wahrscheinlichkeitsanalyse, die Maßtheorie ist trivial.
Was ich damit meine, ist Folgendes: „Eine freie Quantenfeldtheorie: Erwägen Sie, jeden Fourier-Transformationswert f (k) einer Zufallsfunktion als Gauß mit einer (spezifischen) Varianz auszuwählen σ ( k ) . Das ist das (imaginäre Zeit-)Quantenfeld.“ Habe ich gerade freie Quantenfelder definiert? Nichts für Mathematiker, denn ein Random-Picking-Algorithmus, egal wie konvergent, definiert kein Maß. Man braucht eine Sigma-Algebra, um ein Maß zu definieren. Sie können nicht sagen „das Maß einer Menge ist die Wahrscheinlichkeit, dass diese zufällige Funktion in der Menge landet“, weil dies nur in einem Solovay-Universum Sinn macht.
Ich bin mir nicht sicher, ob ich verstehe, was Sie zu sagen versuchen, denn nach meiner begrenzten Erfahrung ist der Solovay-Thm (weiter erweitert durch Krivine, Shelah usw.) nur eine Art zu erklären, dass die Konstruktion nicht messbarer Lebesgue-Mengen vom Wahlaxiom abhängt . All diese Ergebnisse sind meiner Meinung nach alles andere als einfach. Jedenfalls scheint mir diese Diskussion irgendwie irreführend zu sein, weil nicht vollständig verborgen wird, welche maßähnlichen Objekte benötigt werden: Maße sind in gewissem Sinne zu restriktiv, und Proverteilungen scheinen viel besser angepasste Objekte zu sein, wie von P. Cartier untersucht und C. De Witt-Morette.
(2. Teil) Tatsächlich haben beide Autoren gezeigt, dass das Setzen von Proverteilungen (Verallgemeinerung der durch Maße oder sogar Promaße gegebenen eingeschränkten Situation) die physikalisch gewünschten Erklärungen liefert, wenn wir mit der eher restriktiven (aber bereits interessanten) Situation von Pfaden arbeiten. Ich möchte jedoch betonen, was meiner Meinung nach das wichtigste nicht triviale Problem ist: Auch wenn eine maßähnliche theoretische Formulierung von npQFT gegeben sein mag, muss sie dennoch eine Antwort auf das Massenlückenproblem oder die Quarkbeschränkung geben, die zu sein scheint ( wirklich viel) mehr als eine einfache Berechnung.
Ich stimme vollkommen zu, dass das nicht triviale Problem darin besteht, die Eigenschaften des Maßes zu beweisen, wie z. Aber ich bin sicher, dass jede Technik zum Beweis der Massenlücke eine ist, die zeigt, dass die euklidische Theorie zerfallende Korrelationsfunktionen ist, und dies ist so etwas wie eine Wahrscheinlichkeitskopplung, die die Wahrscheinlichkeitsverteilung auf den Feldern auf einer Regularisierung (Gitter) mit denen in a in Beziehung setzt gröbere Regularisierung (Gitter) und nimmt die Grenze (Renormalisierung).
Ich bin nicht der Meinung, dass Soloveys Theorem von Krivine und Shelah "verallgemeinert" wird - die späteren Ergebnisse dienen als Nebelwand, um das ursprüngliche Ergebnis schwerer verdaulich zu machen und ihre wesentliche Trivialität (in der entsprechenden Philosophie) zu verschleiern. Die Essenz von Solovay ist die Methode , nicht das Ergebnis. Solovays "zufälliges Forcieren" sagt Ihnen, dass es, abgesehen davon, dass es nicht mit dem Auswahlaxiom auf unzähligen Mengen übereinstimmt, völlig konsistent ist, über zufällige Auswahlen aus einer Wahrscheinlichkeitsverteilung zu sprechen. Es ist kein Widerspruch zu sagen "Ich wähle die reelle Zahl r zufällig gleichmäßig in [0,1]"
Diese Idee ist mit der Existenz einer nicht messbaren Menge nicht vereinbar, da eine zufällige Realzahl die Wahrscheinlichkeit hat, in jeder vordefinierten Menge zu landen. Diese Wahrscheinlichkeit definiert das Maß jeder Teilmenge. Wenn Sie einen Prozess zum Auswählen eines zufälligen Skalarfelds auf einem Gitter definieren (wie bei freien Feldern, wählen Sie jede Fourier-Komponente als Gauß mit der richtigen Varianz aus), und zeigen Sie dann, dass dieser Prozess zum Auswählen einer Verteilung im Grenzwert kleiner Gitter konvergiert , Sie haben ein zufälliges Auswahlmaß im Solovay-Sinne definiert – das Maß ist die Chance, dass diese zufällige Verteilung in S landet.
Ich habe nicht gesagt, dass Shelah, Woodin usw. das Ergebnis von Solovay verallgemeinert haben, aber sie haben die Ergebnisse von Solovay erweitert, da sie mehrere Fragen beantwortet haben, die Solovay im selben Artikel gestellt (oder vorgeschlagen) hat, in Bezug auf die Notwendigkeit der Hypothese von unzugänglichen Kardinälen . Es gibt eine schöne Ausstellung von J. Raisonnier, wenn Sie interessiert sind.
Ich wollte Shelahs Arbeit (oder Woodins) nicht kleinreden. Shelahs Ergebnis, dass Sie einen großen Kardinal brauchen, wird jedoch oft propagandistisch verwendet, um den Anschein zu erwecken, als ob Solovays Ergebnis nicht 100%ig solide ist (der große Kardinal, um den es geht, kann nicht umstritten sein – es ist nur ein wenig stärker als die Existenz eines ZFC-Modells zu behaupten), und dies ist ein Propagandainstrument, das Mathematiker daran hindert, Solvay-Universen als das tatsächliche reale Universum zu akzeptieren. Ich lebe in einem Solovay-Universum, mache mir keine Sorgen um Sigma-Algebren und möchte nicht "Topos" sagen müssen, um die Wahrscheinlichkeit zu rechtfertigen.
Die Notwendigkeit unzugänglicher Kardinäle sagt eigentlich aus, dass der zweistufige Prozess, den Solovay verwendet hat, um das Maß für alle Teilmengen zu konstruieren, unvermeidlich ist, trotz dessen, was Solovay vermutet hat. Zuerst erweiterte Solovay ein zählbares ZFC-Universum mit zufälligen Realwerten, und dies gibt allen Sets im vorherigen Universum ein Maß, fügt aber eine ganze Reihe neuer nicht messbarer Sets hinzu, da die Auswahl immer noch in der Erweiterung gilt, dann schneidet er das Non heraus -messbare Sätze im neuen Modell. Das Reduzieren erfordert, dass Sie Zugang zu einem Modell von ZFC haben, und dies ist ein großer Kardinal, aber ein unumstrittener kleiner.
Die Idee des Beweises ist einfach, dass es einen logisch konsistenten Weg gibt, ein neues Real nach dem Zufallsprinzip zu definieren (also nicht in irgendeinem aktuellen zählbaren Modell), und dieses Real misst alles Vorherige, nur durch die Wahrscheinlichkeit, darin zu landen (dies Vieles war Cohen bereits bekannt). Aber das Hinzufügen einer neuen reellen Zahl grenzt an viele neue Mengen, aber Sie können eine zweite zufällige reelle Zahl wählen, und wieder bekommt alles ein Maß, aber Sie fügen neue Mengen an usw. Der Punkt ist, dass Sie diesen Prozess konsistent beenden können, was intuitiv ist offensichtlich, weil die probabilistische Auswahl offensichtlich konsistent ist.
Sobald Sie wissen, dass die Wahrscheinlichkeit konsistent ist, sodass Sie Dinge zufällig ohne Widerspruch auswählen können, können Sie die Wahrscheinlichkeit für jede Menge berechnen, sogar für eine Menge von Verteilungen, indem Sie einfach einen Algorithmus definieren, der zufällige Verteilungen auswählt. Physiker verwenden dies implizit die ganze Zeit, um das Ising-Modell (zum Beispiel) auf unendlichen Gittern zu konstruieren, was in der Mathematik nicht offensichtlich ist, weil Sie in dem Moment, in dem das Gitter unendlich ist, eine lächerliche Sigma-Algebra-Konstruktion benötigen. Das Gepäck der Maßtheorie ist lästig , es hindert Sie daran, intuitive Argumente über die Feldtheorie anzubringen.