NNN-gekoppelte harmonische Quantenoszillatoren

Ich möchte die Wellenfunktionen von finden N gekoppelte harmonische Quantenoszillatoren mit dem folgenden Hamiltonian:

H = ich = 1 N ( P ich 2 2 M ich + 1 2 M ich ω 2 X ich 2 + κ 2 ( X ich X ich + 1 ) 2 ) , X N + 1 = 0 , = 1 2 P T M P + 1 2 X T K X ,
Wo M = diag ( 1 M 1 , , 1 M N ) Und K ist reell symmetrisch N × N Matrix mit positiven Eigenwerten,
K = ( k 1 ' κ 0 0 κ k 2 ' κ 0 κ 0 k N 1 ' κ 0 0 κ k N ' )
mit k ich ' = M ich ω 2 + 2 κ Aber k 1 , N ' = M 1 , N ω 2 + κ . Indem man eine Basis wählt, die die Matrix diagonalisiert K , kann der Hamiltonian als Summe von ungekoppelten harmonischen Oszillatoren ausgedrückt werden.

Betrachten Sie als Beispiel zwei gekoppelte harmonische Quantenoszillatoren mit Hamiltonian

H = P 1 2 2 M 1 + P 2 2 2 M 2 + 1 2 M 1 ω 2 X 1 2 + 1 2 M 2 ω 2 X 2 2 + κ 2 ( X 1 X 2 ) 2 .
Wir nehmen die folgenden Änderungen an Variablen vor (normale Koordinaten)
X = X 1 X 2 2 , X = M 1 X 1 + M 2 X 2 M 2 ,
oder gleichwertig,
X 1 = 1 2 ( X + M 2 M X ) , X 2 = 1 2 ( X M 1 M X ) ,
Wo M = ( M 1 + M 2 ) / 2 . Dann wird der Hamiltonianer
H = P X 2 2 μ + 1 2 μ ω 2 X 2 + P X 2 2 M + 1 2 M ω + 2 X 2 .
Wo μ = M 1 M 2 M Und ω + 2 = ω 2 Und ω 2 = ω 2 + 2 κ / μ .

Die Wellenfunktionen sind

Ψ M N ( X 1 , X 2 ) = 1 π X 0 X 0 e X 2 / 2 X 0 2 M ! 2 M e X 2 / 2 X 0 2 N ! 2 N H M ( X X 0 ) H N ( X X 0 ) ,
Wo X = X ( X 1 , X 2 ) Und X = X ( X 1 , X 2 ) Und X 0 = μ ω Und X 0 = M ω + .

Wie funktioniert das alles mit Matrizen "Formalismus"? Und wie man es erweitert N CQHO? Letztendlich möchte ich (8) und (13) in http://arxiv.org/pdf/hep-th/9303048.pdf erneut demonstrieren

Wie wäre es mit einer Ähnlichkeitstransformation zur Matrix? K das diagonalisiert Ihre Matrix. Ich denke, diese Transformationen werden normale Transformationen genannt und die neuen Koordinaten werden als normale Koordinaten bezeichnet
Kleiner Kommentar zum Beitrag (v4): Bitte verlinken Sie in Zukunft auf Abstract-Seiten statt auf PDF-Dateien, zB arxiv.org/abs/hep-th/9303048

Antworten (2)

Ich denke, es könnte konzeptionell einfacher sein, rückwärts zu beginnen. Nehmen wir an, wir haben N entkoppelte harmonische Oszillatoren:

H = A = 1 N [ ( π A ) 2 2 M + 1 2 M ω ich 2 ϕ A 2 ]
Stellen Sie sich nun vor, die unitäre Transformation anzuwenden X J = U J A ϕ A Und P J = U J A π A Wo U T U = 1 damit beides [ X , P ] Und [ ϕ , π ] haben das Standardkommutierungsverhältnis. Eine solche Transformation wird einfach auf die wirken π ich 2 Begriff, aber die ω ich 's im zweiten Beitrag dazu H führt zu interessanten quadratischen Kopplungen zwischen den X J . (Wenn Sie weiterhin ungleiche Massen wünschen (ich bin mir nicht sicher, ob Sie dies wirklich im Zusammenhang mit der Verschränkungsentropie eines freien Skalarfelds tun), können Sie die Skalierung durchführen X ich M ich X ich Und P ich P ich / M ich ohne die kanonische Vertauschungsbeziehung zwischen den zu ändern X ist und P 'S.)

Nun geht es um eine ganz bestimmte Nächste-Nachbar-Kopplung zwischen den X ich . Die übliche Art, über diese Transformation nachzudenken, beinhaltet Fourier-Reihen. Wenn ich mich nicht irre, so etwas wie

X J = A = 1 N e 2 π ich J A / N ϕ A

sollte handeln, um Ihren Hamilton-Operator zu diagonalisieren, wenn ich dies weiter annehme X N + 1 = X 1 , dh ich lebe auf einem Kreis.

Im Kontext des Srednicki-Papiers und der Verschränkungsentropie gibt es einige modernere Ansätze, die Zweipunktfunktionen beinhalten. Sehen Sie sich Abschnitt 2.2 der Rezension http://arxiv.org/abs/0905.2562 oder Abschnitt III von http://arxiv.org/abs/0906.1663 an .

(Wenn ich keine offensichtlichen algebraischen Fehler gemacht habe) besteht die elegante Lösung für dieses Problem darin, zu erkennen, dass die Matrix

Λ = ( 0 1 0 0 0 0 1 0 1 1 0 0 0 )
pendelt tatsächlich mit H seit Λ im Grunde Karten X ich + 1 Zu X ich .

Infolge, H Und Λ einen gemeinsamen Satz von Eigenvektoren haben.
Seit Λ N = 1 N × N , die Eigenwerte von Λ erfüllen λ k N = 1 so sind die N 'te Wurzel der Einheit.

λ k = e 2 π ich k / N = ω N k .
Die Eigenvektoren werden dann leicht als die Fourier-Vektoren gefunden, d. h
v k = 1 N ( ω N k ( ω N k ) 2 1 ) .
Mit diesen können Sie die Matrix konstruieren U von Eigenvektoren, die diagonalisieren H .