Protonenspinunabhängige Feinstruktur "Hamiltonsch" WfWfW_f

Die Störungskorrektur (Feinstruktur) bei entarteter Energie finden E N 0 , können wir den Operator diagonalisieren W F N , die Beschränkung von W F zum zugehörigen Eigenraum E N 0 .

Laut CC Tanoudji, seitdem W F nicht vom Protonenspin abhängt, ist es möglich, die Dimension des Problems durch 2 zu teilen ( G N 2 X G N 2 Matrix statt G N X G N Matrix) und eine Teilmatrix diagonalisieren. Warum?

Ich möchte bitte einen mathematischen Beweis haben.

Ist die Störung W F hermitisch?

Antworten wie "Mathematik ist nur ein Werkzeug, es ist nicht die Natur usw." sind nicht hilfreich. Wer nicht helfen kann, bitte nicht stören.

Antworten (1)

Sie möchten also einen Operator auf einem Unterraum diagonalisieren.

Insbesondere möchten Sie diagonalisieren W F N , die Beschränkung von W F zum zugehörigen Eigenraum E N 0 .

[Seit] W F nicht vom Protonenspin abhängt, ist es möglich, die Dimension des Problems durch 2 zu teilen ( G N 2 X G N 2 Matrix statt G N X G N Matrix).

Wenn ein Eigenvektor in E N 0 sieht aus wie eine lineare Kombination von { Ψ N | + , Ψ N | } bei dem die | ± der Spin des Protons ist, dann interessiert uns wie W F wirkt auf einen beliebigen Vektor im Bereich von { Ψ N | + , Ψ N | } .

Angenommen, wir finden jetzt einige spezifische Funktionen ( Φ 1 , Φ 2 , , Φ k ) die orthogonal sind und so dass W F Φ ich | + = a ich Φ ich | + dann ist der Operator diagonal (das ist die halbdimensionale Version des Problems). Wenn wir es lösen können (dh die finden ( Φ 1 , Φ 2 , , Φ k ) das befriedigt W F Φ ich | + = a ich Φ ich | + ) dann, da die Störung nicht vom Protonenspin abhing, erhalten wir auch W F Φ ich | = a ich Φ ich | Dies bedeutet, dass { Φ k | + , Φ k | } ist ein Satz orthogonaler Eigenvektoren (Orthogonalität folgt aus ( Φ 1 , Φ 2 , , Φ k ) sind orthogonal).

Wir haben also eine Menge orthogonaler Eigenvektoren, wenn es genug davon gibt, sind wir fertig, wir haben die Matrix diagonalisiert. Also die Spanne von { Ψ N | + , Ψ N | } hatte Dimensionen G N So { Ψ N | + } Ist G N / 2 dimensional. Wenn also dieses kleinere Problem diagonalisiert werden kann, dann sind wir in Ordnung.

Ist es offensichtlich, dass es diagonalisierbar ist? Es ist nicht einmal offensichtlich, dass es sich um einen Operator handelt, Sie können Ihre Domain einschränken, aber um ein Operator zu sein, muss sich der Bereich in der Domain befinden (oder vielleicht die Schließung der Domain, wenn Sie unbegrenzte Operatoren mögen). Sie können auf die Domain projizieren um es zu erzwingen oder ein Operator zu sein. (Damit die mit der Funktion zusammengesetzte Projektion ein Operator ist.) Dann ist noch zu fragen, ob sie diagonalisierbar ist. Wir müssen also wissen, ob es genügend Eigenvektoren im reduzierten Raum gibt.

Ist die Störung W F hermitisch?

Wenn ja, löst das obiges Problem. Wenn das Ziel darin besteht, einen hermiteschen Operator zu approximieren, dann ist es vernünftig, hermitesche Störungen zu haben, aber es ist nicht offensichtlich, dass sie hermitesch sein müssen. Wir können jedoch argumentieren, dass, wenn der Störungsoperator im größeren Raum hermitesch ist, wir diese Einschränkung auf das kleinere Problem diagonalisierbar machen können.

Dafür wollen wir zeigen, dass die Diagonalisierung passieren kann und echte Eigenwerte hat. Wenn wir wissen, dass die Diagonalisierung (mit reellen Eigenwerten) in einem größeren Raum stattfindet als jeder Eigenvektor A ( a + | + a | ) mit Eigenwert A R setzt den Staat voraus A ( a + | + a | ) ist ebenfalls ein Eigenvektor mit demselben Eigenwert und damit der gesamte Raum aufgespannt, da er sich nur durch den Protonenspin unterscheidet. Und deshalb ist es so A | + Und A | . Dann könnten wir genauso gut alle anderen Eigenvektoren mit demselben Eigenwert (falls vorhanden) durch einen orthogonalen zu beiden ersetzen (auf die Teilmenge des Eigenraums beschränken, die orthogonal zu diesen beiden ist, und diagonalisieren, dass sie auf dem gesamten Eigenraum diagonalisierbar ist es ist ein Vielfaches der Identität auf diesem Eigenraum). Also fahren wir damit fort (unter Verwendung von Zorns Lemma, falls nötig), bis wir Eigenvektoren haben, die alle in dem Raum liegen, der von aufgespannt wird { Ψ N | + } oder in dem von überspannten Raum { Ψ N | } . Es gab G N Eigenvektoren im größeren Raum wurden jeweils durch einen Vektor im Bereich von ersetzt { Ψ N | + } oder in der Spanne von { Ψ N | } . (Entweder direkt oder als einer der anderen in einem platziert war, aber der Punkt ist, dass wir eine Diagonale hatten, wo alle G N Eigenvektoren sind in Spanne von { Ψ N | + } oder in der Spanne von { Ψ N | } . )

Da die Eigenvektoren im größeren Raum orthogonal und von Null verschieden waren, waren sie linear unabhängig. Also diejenigen in der Spanne von { Ψ N | + } sind linear unabhängig und diejenigen in der Spanne von { Ψ N | } Ade linear unabhängig. Da diese Räume von Dimension sind G N / 2 (vorausgesetzt G N endlich ist, also macht die Division Sinn), dann gibt es höchstens G N / 2 Vektoren in jedem. Wenn Sie versucht haben, zu setzen M weniger in einem dann die anderen Bedürfnisse haben G N / 2 + M damit sie sich ergänzen G N Vektoren, aber das würde überschreiten G N / 2 für den anderen muss es so sein G N genau in jedem. Das ist genau genug, damit die eingeschränkte diagonalisierbar ist. Aber diese haben alle reelle Eigenwerte, also sind sie hermitesch.

Das heißt, als wir nach Eigenvektoren des kleineren Problems suchten, das wir finden konnten G N / 2 orthogonale Eigenvektoren mit reellen Eigenwerten, es ist hermitesch, also könnte es gemacht werden.

Warum könnten wir die Matrix unterteilen, wenn sie immer noch nicht diagonalisiert ist?

Ich sage, dass, wenn Sie die diagonalisieren G N X G N Matrix dann können Sie nach Eigenräumen diagonalisieren, dann für jeden Eigenraum einen Vektor V finden, dann seine Projektionen auf die beiden G N / 2 dimensionale Räume befinden sich im selben Eigenraum und zwei beliebige orthogonale Vektoren in diesem Eigenraum sind Eigenvektoren. Wir können also eine auswählen und auf beide projizieren G N / 2 dimensionale Räume und wenn einer von ihnen Null ergibt, nimm den anderen und ersetze den | ± mit | Also haben wir am Ende zwei Vektoren weniger, wählen dann einen zufälligen Vektor im Eigenraum aus, der orthogonal zu allen ist, die wir bisher haben, und wiederholen. So erhalten Sie Ihre Eigenvektoren für die große Matrix, um alle Vektoren in den beiden zu sein G N dimensionale Räume. Die Beschränkung auf den kleineren Raum ist also ein Operator und diagonalisierbar.

Teil 2 habe ich nicht verstanden. Wie auch immer, warum könnten wir die Matrix unterteilen, wenn sie immer noch nicht diagonalisiert ist? Danke schön.
Wenn Sie die Matrix in der von Timaeus bereitgestellten Basis erweitern, sehen Sie, dass es sich um eine Blockdiagonale handelt, z. B. wie es aussieht
( A 0 0 A )
Das heißt, es ist blockdiagonal. Wenn wir unterteilen, werfen wir nur die zusätzliche Kopie von weg A .