Kommutator und Faktorisierung der Eigenfunktionen

Ich bin über folgende Aussage gestolpert:

Betrachten Sie einen Hamiltonoperator H das ist Funktion einer Vielzahl von Operatoren: H ( Ö 1 ^ , Ö ^ 2 , . . . , Ö ^ N ) . Wenn wir das zeigen können H pendelt mit all diesen Betreibern

[ H , Ö ^ 1 ] = [ H , Ö ^ 2 ] = . . . . . = [ H , Ö ^ N ] = 0
dann können wir seine Eigenfunktionen schreiben ψ H in faktorisierter Form als Produkt der Eigenfunktionen aller Operatoren Ö ^ :
ψ H = ψ Ö 1 ψ Ö 2 . . . . . ψ Ö N

Meine Frage ist: Wie können wir diese Aussage beweisen?

(Stark verwandt) Bonusfrage: Gibt es einen besseren Weg, dieses Theorem zu formulieren? Gibt es eine allgemeinere Form davon?


Um die Situation so klar wie möglich zu machen, möchte ich ein konkretes Beispiel für die Anwendung dieses Theorems geben:

Betrachten Sie den Hamilton-Operator:

(1) H = P 2 2 M + k ( P S )
wir wollen sein Spektrum und seine Eigenfunktionen finden. Das mag zunächst herausfordernd erscheinen, aber wir können das oben erwähnte Theorem verwenden: Beachten Sie in der Tat das
[ H , P ich ] = 0     ;     ich = 1 , 2 , 3
das bedeutet, dass wir die Eigenfunktionen von schreiben können H als:
ψ = ψ P χ
Wo ψ P sind die Eigenfunktionen des Operators P Und χ sind die Eigenfunktionen des Spins S , So:
(2) ψ = ψ P χ = 1 ( 2 π ) 3 / 2 exp [ ich P X ] χ
und daraus die Ableitung der Eigenfunktionen von H ist viel einfacher.


Bearbeiten Sie als Antwort auf die Kommentare: Ich fürchte, ich habe mich nicht gut ausgedrückt; Ich werde versuchen, noch mehr zu klären:
Ich weiß, dass es einen starken Zusammenhang zwischen Kommutierung und Faktorisierbarkeit der Eigenfunktionen gibt , aber ich weiß nicht, was dieser Zusammenhang genau ist, und ich weiß natürlich auch nicht, wie ich ihn beweisen soll. Das ist mein Problem.

Aber dein H pendelt nicht mit S ....
Ich finde S nur auf den Spinanteil der Wellenfunktion wirkt, nicht L , also sehe ich nicht, warum es nicht mit pendeln würde H . Können Sie erklären? @mikestein
Wir haben [ P S , S J ] = [ P ich S ich , S J ] = P ich [ S ich , S J ] = P ich ϵ ich J k S k 0. So [ H , S J ] 0 . Ich sage nicht, dass Ihre faktorisierte Lösung falsch ist, nur dass die Bedingungen des Theorems nicht gelten.
Ahh, Sie meinen die Komponenten selbst, aber Sie können immer noch Eigenzustände mit dem S ^ 2 kennzeichnen, oder?
@mikestone Dies war das Beispiel in meinen Vorlesungsunterlagen. Ich bin genauso verwirrt wie Sie. Warum gilt dann die Faktorisierung? Was ist die Bedingung dafür, dass die Eigenfunktion faktorisierbar ist?
„Eigenfunktionen von S " ist widersprüchlich: Sie können nicht alle drei Komponenten des Spins gleichzeitig diagonalisieren. Sie sind Eigenfunktionen einer einzigen Richtung des Spins, angegeben durch P S , die nicht unabhängig von ist P . Am besten erinnern Sie sich an die Pauli-Lösung des Wasserstoffatoms.
Dein Beispiel ist ziemlich irreführend. Während Ihr Hamiltonian mit pendelt P Und S 2 , wenn Sie im Impulsraum arbeiten, ist alles eine Funktion von p . Betrachten Sie die Spin-1/2-Lösungen, also 2-Spinoren. Die Eigenwerte sind die üblichen Pauli-Vektor- Eigenvektoren , abhängig von p . Sie können dies Fourier-transformieren, aber warum? Wo ist die Faktorisierung?
@CosmasZachos Dieses Beispiel, das ich bereitgestellt habe, überzeugt mich auch nicht, ich hatte gehofft, hier eine Klärung zu finden; konzentriere dich nicht darauf. Meine Frage ist: Was ist der Zusammenhang zwischen Kommutierung und Faktorisierbarkeit der Eigenfunktion?
Wenn die Symmetrien untereinander kommutieren, handelt es sich um eine selbsterklärende Tensorproduktstruktur. Wenn dies nicht der Fall ist, handelt es sich um eine glatte Trennung der Variablen, und die Suche nach einem Theorem ist übertrieben.
@CosmasZachos Es tut mir leid, aber ich verstehe nicht, was du sagst.
Stellen Sie sich einen Hamiltonian vor, der nur aus besteht L 2 . Es pendelt mit allen drei Rotationsgeneratoren, L . Es ist einfach nicht wahr, dass seine Eigenvektoren die Produkte der Eigenvektoren aller drei sind L . Das "Theorem" erscheint als Missverständnis der klassischen Faktorisierung des Wasserstoff-SE-pde
@CosmasZachos Aber wie ist dann die Beziehung zwischen dem Kommutator und der Faktorisierung? Irgendein Zusammenhang muss da sein. Meine Notizen sind voll von Aussagen wie: "da der Kommutator zwischen diesem und dem Hamilton-Operator Null ist, können wir die Eigenfunktion in faktorisierter Form schreiben"

Antworten (3)

Ich denke, Ihr Theorem ist ein gründliches Missverständnis der pde-Faktorisierung, zB eines kugelsymmetrischen Systems. Wenn Sie alle dummen Konstanten nichtdimensionalisieren, indem Sie sie in die relevanten Einheiten aufnehmen, haben Sie so etwas wie Δ + v ( R ) E = 0 .

Seine Eigenvektoren sind nicht das Produkt der Eigenvektoren aller Symmetriegeneratoren (mit dem Hamiltonoperator vertauschende Operatoren), hier ua der drei L S. Erinnern Sie sich stattdessen daran, wie sich die Variablen dieser Gleichung in der einfachen pde-Theorie trennen (vgl. Trennung der Variablen ):

0 = Δ + v ( R ) E = 1 R 2 R   R 2 R + 1 R 2 L 2 ( θ , ϕ ) + v ( R ) E       L 2 ( θ , ϕ ) = R   R 2 R R 2 v ( R ) + R 2 E .

Dies ist eine einfache Trennung von Variablen: Jede Seite der Gleichung beinhaltet verschiedene Variablen, daher ist ihre Eigenvektorstruktur disjunkt. Die Eigenvektoren der linken sind die sphärischen Harmonischen, Y l M ( θ , ϕ ) , mit Eigenwerten l ( l + 1 ) und die Eigenvektoren der rechten Seite müssen Funktionen von nur r sein , aber mit denselben Eigenwerten , dh

1 R 2 R   R 2 R + l ( l + 1 ) R 2 + v ( R ) = E ,
jetzt in geläufigerer Form geschrieben und mit E zu bestimmen, dem neuen Eigenwert, für Eigenfunktionen R N l ( R ) .

Die radialen Eigenfunktionen sind inert unter L ( θ , ϕ ) 2 , aber immer noch seine Eigenwerte enthalten; und die sphärischen Harmonischen hängen nicht von r ab , sind aber natürlich keine Eigenfunktionen von L X , L j , nur von L 2 Und L z , die ebenfalls mit dem Hamiltonian kommutieren, also gute Symmetrieladungen dafür sind.

Nun, in anderen Koordinatensystemen und für spezielle Potentiale, wie dem Wasserstoff, sind Sie vielleicht effizienter (vgl. Paulis ursprüngliche SO(4)-Lösung des Problems; könnte schlechter abschneiden, als diese zu studieren.), aber die Faktorisierung von pdes ist es normalerweise geleitet von der Symmetrie, wie Sie oben gesehen haben. Sie sollten am besten ausgewählte Eigenfunktionen der Symmetrieoperatoren berücksichtigen und diejenigen verwenden, die am wenigsten mit den anderen verschränkt sind.

Im trivialen Fall schließlich, wo die Symmetrien untereinander kommutieren, zerlegt sich natürlich der Hilbert-Raum selbst in ein Tensorprodukt; deren Tensorfaktoren und damit Wellenfunktion, Faktor und ausschließlich von dem entsprechenden Eigenoperator bearbeitet werden, ohne Rücksicht auf die anderen Tensorfaktoren, die den anderen Operatoren entsprechen. Wenn dieser triviale Fall der Fall ist, den Ihr Lehrer besprochen hat, ist es kaum heilsam, ihn so unglaublich abstrakt zu formalisieren.


  • Antwort auf Kommentar zu vermeintlichem Beispiel (1) .

Schreiben wir es in dimensionslosen Einheiten,

0 = E + P 2 + 2 k P S .
Ohne Beschränkung der Allgemeinheit, um das Problem zu veranschaulichen, nimm S = σ / 2 . Da das Problem offensichtlich kugelsymmetrisch ist, können wir den Spin immer in die 3. (z) Richtung drehen, ohne seine Eigenwerte zu beeinflussen!
0 = E + P 2 + k P z σ 3     .
Das Problem hat sich in drei entkoppelte Teile getrennt ,
0 = E + P X 2 + P j 2 + ( P z 2 + k P z σ 3 ) .
Die ersten beiden Teile sind Skalare, aber das dritte ist eine 2×2-Matrix, wirkt also auf den Raum von 2-Spinoren.

Die Eigenwerte E = P 2 ± k P z sind die Summe der Eigenwerte jedes Teils auf der rechten Seite für die Eigenfunktionen konstant(x), konstant'(y) und konstante Zeiten

[ 1 0 ] ; [ 0 1 ] ,
bzw. Beachten Sie, dass die letzte Eigenfunktion von den Eigenspinoren von abhängt S 3 nur: Sie können unmöglich alle drei diagonalisieren S X , S j , S z gleichzeitig. Eigentlich sind die ersten beiden komplett aus dem Problem herausgefallen.

Im Impulsraum, den Sie durch Fourier-Transformation in einen lächerlichen Lakonismus umgewandelt haben, gibt es kaum einen Einblick in Ihr vermeintliches Theorem, und Sie haben mich zu Recht aufgefordert, mich nicht darauf zu konzentrieren . Ihr Hamiltonian ist eine 2×2-Spinmatrix und offensichtlich sind seine Eigenvektoren 2-Spinoren.

Es tut mir wirklich leid, ich sehe, dass Sie sich Mühe gegeben haben, diese Antwort zu geben, aber ich kann einfach nicht verstehen, was Sie sagen. Vielleicht verwenden Sie zu diesem Zeitpunkt eine Sprache, die für mich zu fortgeschritten ist. Vielleicht würde das helfen: Wenn Sie mit möglichst einfachen Passagen beweisen müssten, dass der Hamiltonoperator (1) eine Lösung der Form (2) hat, wie würden Sie das machen? Vielleicht würde mich eine einfache funktionierende Lösung an diesem konkreten Beispiel klicken lassen.
Ich glaube, ich habe es! Ich habe gerade eine Antwort hier gepostet; Bitte lassen Sie mich wissen, was Sie davon halten.
Nun, wenn es Ihre eigene Frage beantwortet, sollte ich kein Problem damit haben.
Ja, aber ich mache mir Sorgen, Fehler gemacht zu haben, ahahahah. Ich glaube, ich war vorsichtig, aber eine doppelte Überprüfung ist nur gut!

Ich werde versuchen, meine eigene Frage hier zu beantworten, da ich denke, dass ich jetzt verstehe, was mir zuvor gefehlt hat.

Wir wollen den Zusammenhang zwischen Vertauschungsrelation und Faktorisierbarkeit der Eigenfunktion verstehen. In diesem Link dreht sich alles um die Definition separabler Hamiltonoperatoren und um eine richtige Interpretation der Bedeutung von Kommutierungsrelationen:

Denken Sie an einen Hamilton-Operator der Form:

(1) H = H 1 + H 2
Wir hätten uns dafür entscheiden können, mit einem Hamilton-Operator zu arbeiten, der die Summe mehrerer Terme ist, nicht nur zwei, aber die Verallgemeinerung von zwei Termen auf viele Terme ist wirklich einfach, also bleiben wir vorerst, um unser Leben einfacher zu machen, bei einem Hamilton-Operator der Form 1). Dieser Hamiltonoperator heißt trennbar, falls die folgende Vertauschungsrelation gilt:
[ H 1 , H 2 ] = 0
Das ist einfach eine Definition. Nun: die entscheidende Tatsache ist, dass für einen separablen Hamiltonoperator gilt:

  1. Seine Eigenwerte E die Summe der Eigenwerte der beiden Hamiltonoperatoren sind H 1 , H 2 :
    E = E 1 + E 2
  2. Seine Eigenfunktionen ψ sind das Produkt der Eigenfunktionen von H 1 , H 2 :
    ψ = ψ 1 ψ 2

Dies ist der Zusammenhang zwischen Kommutierung und Faktorisierbarkeit der Eigenfunktionen! Aber wir sind natürlich noch nicht fertig, wir müssen beweisen, dass das alles stimmt.

Beginnen wir mit dem Beweis: der Tatsache, dass [ H 1 , H 2 ] = 0 bedeutet, dass wir eine gemeinsame Basis von Eigenvektoren für finden können H 1 , H 2 , das ist ein wirklich berühmter Satz. Also haben wir:

H 1 | E 1 , E 2 = E 1 | E 1 , E 2
H 2 | E 1 , E 2 = E 2 | E 1 , E 2
aber das bedeutet sofort:
H | E 1 , E 2 = ( H 1 + H 2 ) | E 1 , E 2 = H 1 | E 1 , E 2 + H 2 | E 1 , E 2 = E 1 | E 1 , E 2 + E 2 | E 1 , E 2
So:
H | E 1 , E 2 = ( E 1 + E 2 ) | E 1 , E 2
Und schon haben wir Punkt eins bewiesen! Wir müssen jetzt Punkt zwei beweisen, den Punkt über die Faktorisierung der Eigenfunktion, der all diesen Ärger ausgelöst hat. Um diesen Punkt zu beweisen, müssen wir unsere Gleichungen auf eine Basis projizieren, um von Eigenvektoren zu Eigenfunktionen zu wechseln. Die grundlegende Beobachtung hier ist die folgende:

  • Wenn zwei unterschiedliche Operatoren (zum Beispiel das Momentum P X und die Drehung S X ) pendeln, was bedeutet, dass:
    [ P X , S X ] = 0
    dann können wir uns vorstellen, dass diese Operatoren auf getrennten Hilbert-Räumen wirken!

Dies ist hier die Schlüsselbeobachtung, denn sie lässt uns verstehen, dass wir, wenn wir projizieren wollen, nicht einfach schreiben können:

X | H | E 1 , E 2 = ( E 1 + E 2 ) X | E 1 , E 2
das ist falsch! Wir müssen stattdessen schreiben:
X 1 , X 2 | H | E 1 , E 2 = ( E 1 + E 2 ) X 1 , X 2 | E 1 , E 2
Das ist richtig! Aber diese kompakte Notation | A , B tut uns in diesem Zusammenhang keinen Gefallen , sondern schadet aktiv unserem Verständnis; besser auf die richtige Schreibweise umstellen:
| A , B = | A | B
unter Verwendung der grundlegenden Tatsache (manchmal als Postulat angesehen) , dass der gesamte Hilbert-Raum das Tensorprodukt der Hilbert-Räume ist . Also haben wir:
( X 1 | X 2 | ) H ( | E 1 | E 2 ) = ( E 1 + E 2 ) ( X 1 | X 2 | ) ( | E 1 | E 2 )
Dies kann wie folgt umgeschrieben werden:
(2) H ' ( X 1 | X 2 | ) ( | E 1 | E 2 ) = ( E 1 + E 2 ) ( X 1 | X 2 | ) ( | E 1 | E 2 )
Sie können sehen, dass ( X 1 | X 2 | ) von links nach rechts vom Hamilton-Operator gesprungen ist, liegt dies daran, dass wir den Hamilton-Operator auf den Raum von projiziert haben X 1 , X 2 , bedeutet, dass H ' ist jetzt kein Operator mehr, der auf Kets wirkt, sondern ein Operator, der auf Funktionen wirkt! (Dieses Vorgehen ist wirklich üblich im QM und H ' wird meistens nur gerufen H , auch wenn es nicht mehr auf Kets wirkt, kann dies ziemlich verwirrend sein, wenn es nicht explizit angegeben wird) Ok, wir haben (2); was jetzt? Jetzt erinnern wir uns an die Skalarproduktregel für Produkte in verschiedenen Hilberräumen! (alles dazu findest du hier ) Die Anwendung der Definition des inneren Produkts (Skalarprodukt) auf unsere Gleichung (2) ergibt:
(3) H X 1 | E 1 X 2 | E 2 = ( E 1 + E 2 ) X 1 | E 1 X 2 | E 2
da aber natürlich die eigenfunktionen von H 1 , H 2 sind definiert als (und dies kommt natürlich aus der Definition der Wellenfunktion selbst):
ψ 1 = X 1 | E 1
ψ 2 = X 2 | E 2
folgt, dass wir aus (3) das sofort ableiten können (wirklich umschreiben):
H ψ 1 ψ 2 = ( E 1 + E 2 ) ψ 1 ψ 2
Und das beweist unseren wertvollen Punkt 2! Wir sind fertig!

Damit die Wellenfunktion ein Produkt ist, ist es notwendig und ausreichend, sich mit getrennten Variablen in der Schrödinger-Gleichung zu befassen.

Wenn die Betreiber Ö ^ N pendeln mit H ^ , Dann Ψ E kann ein Eigenzustand für jeden fraglichen Operator sein.