Propagator aus Pfadintegral

Im Unterricht haben wir so etwas bewiesen wie:

2 Z ( J , J ¯ ) J ( X ) J ¯ ( X ' ) 1 Z | J = J ¯ = 0 = Δ ( X X ' ) .

Dass wir durch Einführen von Quelltermen in das Pfadintegral einfach den Feynman-Propagator wiederherstellen können. Aber wie gewinnen wir eigentlich Feynman-Vermehrer in der Praxis? Wir haben:

Z ( J , J ¯ ) = D ψ ¯ D ψ exp [ ich D 4 X ψ ¯ ( ich γ μ D μ M ) ψ + J ψ + J ¯ ψ ¯ ] .

Geben Sie uns so etwas wie (glaube ich):

2 Z ( J , J ¯ ) J ( X ) J ¯ ( X ' ) | J = 0 = D ψ ¯ D ψ ( ψ ¯ ψ ) exp [ ich D 4 X ψ ¯ ( ich γ μ D μ M ) ψ ] = det ( ich γ μ D μ M ) ( ich γ μ D μ M ) 1 .

Wir dividieren beide Seiten durch Z also verschwindet die Determinante, aber wie kommt man von der letzten Zeile zum alten guten Feynman- Propagator für Diracs-Feld?

Laut der Seite, auf die Sie verlinkt haben, ist der Feynman-Propagator für Dirac-Felder S ~ F ( P ) = 1 γ μ P μ M . Dies ist dasselbe wie Ihr Ergebnis bei der Identifizierung P μ = ich D μ und unter Berücksichtigung der unterschiedlichen Vorzeichenkonvention.
Tatsächlich hat Qmechanic den Link hinzugefügt. Aber mein Ausdruck ist im Ortsraum, wenn ich Quantität wie transformiere 1 ( ich γ μ D μ M ) zum Impulsraum, macht die trivialen Ausdrücke μ > ich P μ gilt noch? Vom ersten Eindruck scheint es, dass FT von etwas im Nenner nicht trivial ist?
Ich werde meinen Kommentar zu einer Antwort erweitern, um darauf einzugehen

Antworten (1)

Sie haben Recht, dass der Feynman-Propagator für ein Spinorfeld tatsächlich ist ( ich γ μ D μ M ) 1 . Der knifflige Teil besteht darin, genau zu interpretieren, was das "Umgekehrte" bedeutet. Es bedeutet nicht nur, dass Sie die Gammamatrizen invertieren (obwohl Sie das tun). Der Ableitungsoperator wird ebenfalls invertiert. Das heißt, wenn wir eine Funktion definieren G ( j , X ) := ( ich γ μ D μ M ) 1 , Dann

D 4 X G ( j , X ) F ( X ) = G ( j ) ( ich γ μ D μ M ) G ( X ) = F ( X ) .

Es kann helfen, darüber nachzudenken G ( X , j ) wie eine Matrix (da sie zwei "Indizes" hat X Und j ) Und F ( X ) als wie ein Vektor (da es einen "Index" hat X ). Dann ist die Integration vorbei X ist wie Matrizenmultiplikation, und G ( j , X ) ist wie die umgekehrte Matrix der unendlich dimensionalen ( nicht 4x4) "Matrix" ( ich γ μ D μ M ) .

Daraus sollte es nicht zu schwer sein, das zu sehen

( ich γ μ D μ M ) G ( X , j ) = δ 4 ( X j ) . ( 1 )
Also, wenn wir das sagen G ist das "Umgekehrte" von ( ich γ μ D μ M ) , meinen wir, dass es sich um die Green-Funktion für den Differentialoperator handelt, nicht nur um die Matrix-Inverse der Gamma-Matrizen. Wir verwenden nun die Translationsinvarianz, um dies zu realisieren G ( X , j ) hängt eigentlich nur von dem einzelnen Argument ab X j . Wenn wir beide Seiten Fourier transformieren, geht das Integral über X verwandelt dies in eine Faltung von ( ich γ μ D μ M ) Und G . Die Fourier-Transformation einer Faltung ist einfach das Produkt der Fourier-Transformationen, daher ist die Fourier-Transformation einfach:
( γ μ P μ M ) G ~ ( k ) = 1
(Wo G ~ ( k ) ist jetzt nur eine 4x4-Matrix, die "1" auf der rechten Seite ist die 4x4-Identitätsmatrix, und die linke Seite beinhaltet nur eine 4x4-Matrix-Multiplikation über die Spinor-Indizes.) Also bekommen wir endlich
G ~ ( k ) = ( γ μ P μ M ) 1 ,
wobei die Inverse jetzt nur 4x4-Matrix-Inversion bedeutet.

Die TLDR-Version ist diese: Die Fourier-Transformation eines Differentialausdrucks verwandelt ihn einfach in ein Produkt im Impulsraum der FT des Differentialoperators und der FT der zu differenzierenden Funktion. Und Produkte sind viel einfacher zu invertieren (Sie dividieren einfach) als Differentialoperatoren. Der Versuch, einen Differentialoperator zu "umkehren" (dh seine Green-Funktion zu finden), ist im Realraum normalerweise sehr schwierig, aber im Impulsraum wird es trivial: Sie nehmen einfach den Kehrwert des Fourier-transformierten Differentialoperators. Also im Grunde ja, um die Umkehrung eines Operators zu FT, können Sie den Operator einfach naiv FT und dann diese FT in den Nenner stecken.