Zunächst einmal müssen wir herausfinden, wie die MatrixNich j
unter den betrachteten linearen Transformationen transformiert. Beachten Sie zu diesem Zweck, dass wir die Zerlegung (2) im OP konstruieren können, indem wir (gemäß der von den Autoren verwendeten Konvention) Folgendes berücksichtigen:
Cich j=Cichkℓ _ϵj k ℓ,(4)
der gehorcht
ϵj m nCich j=Cichkℓ _ϵkℓ _m n=Cich[ m n ]=Cichm n
. Dann haben wir uns getrennt
Cich j=C( ich j )+C[ ich j ]
und nehme
C( ich j )C[ ich j ]≡Nich j,≡ −ϵich j kAk,(5)
definieren
Nich j
Und
Ak
. Hier haben wir die Tatsache ausgenutzt, dass es sich um eine Drei-Parameter-Algebra handelt, sodass der antisymmetrische Teil und der Vektor die gleiche Anzahl unabhängiger Komponenten haben. Mit anderen Worten
Nich jAk=C( ichkℓ _ϵj ) kℓ _,= −Cichk ich.(5.1)
Fortfahren lassen wir
a , b , c
bezeichnen transformierte Indizes:
ξA=γJAξJ
. Wir werden auch verwenden
γAich
um die Umkehrung von zu bezeichnen
γichA
, indem wir uns von den Indizes darüber informieren lassen, mit welcher Transformation wir es zu tun haben. Aus (5.1) ist dies offensichtlich
AC=γJCAJ
, aber die Umwandlung von
Nich j
ist etwas kniffliger:
Nc d=Ckich jγichAγJBγ( ckϵD) ein b= ( 2δk[ ichAj ]+ϵich j ℓNk _)γichAγJBγ( ckϵD) ein b.(6)
Einfache Berechnung bestätigt, dass der erste Term in (6) verschwindet und wir haben
Nc d=ϵein b ( dich j ℓγc )kγichAγJBNk _=ϵein b eich j ℓγ( dMγc )kγMeγichAγJBNk _= det ( γ)ϵich bin mich j ℓγ( dMγc )kNk _= det ( γ)γ( dℓγc )kNk _= det ( γ)γDℓγCkNk _.(6.1)
Also mal abgesehen vom Faktor
det ( γ)
das haben wir gefunden
Nich j
transformieren, wie seine Indizes vermuten lassen. Beachten Sie, dass, obwohl die Symmetrisierung in (6.1) verschwindet, es genau die Symmetrisierung ist, die den ersten Term in (6) tötet. Natürlich die Umwandlung von
Qich j
folgt trivial aus der Definition:
Qein b=γichAγJBQich j.(6.2)
Beachten Sie nun, dass, wenn wir unsere Mengen als schreiben3 × 3
Matrizen können wir (6.1) und (6.2) ausdrücken als
Q˜= γQγT,N˜= det ( γ)(γ− 1)TNγ− 1,(6.3)
Unter orthogonalen Transformationen können wir (6.3) umschreiben als
Q˜= γQγ− 1,N˜= det ( γ) γNγ− 1,(6.4)
was, abgesehen vom Faktor
det ( γ)
ist identisch mit der gegenseitigen Transformation zweier linearer Operatoren. Da beide
Qich j
Und
Nich j
symmetrisch sind, werden sie durch orthogonale Transformationen diagonalisiert, weshalb wir das
mit Sicherheit sagen können
Q
Und
N
sind genau dann zueinander diagonalisierbar , wenn es eine lineare Transformation gibt, die sie dazu bringt, als Matrizen zu pendeln. Technisch verwenden wir die triviale Tatsache, dass
Nein b
ist genau dann diagonal, wenn
det ( γ)− 1Nein b
Ist.
Der Trick besteht dann darin, sich daran zu erinnernQich j
UndNich j
als Matrizen unter orthogonalen Transformationen transformieren, tun sie dies im Allgemeinen nicht. Insbesondere Diagonaltransformationen ermöglichen es uns, die Eigenwerte neu zu skalieren. Genauer gesagt dürfen wir das ohne Einschränkung annehmenQich j
wurde diagonalisiert. Die Kommutatorkomponenten sind dann gegeben durch
Q1 ichNich 2−N1 ichQich 2Q1 ichNich 3−N1 ichQich 3Q2 ichNich 3−N2 ichQich 3= (Q11−Q22)N12,= (Q11−Q33)N13,= (Q22−Q33)N23,
und unter einer geeigneten Diagonaltransformation (z. B. einer Normalisierung) können wir erhalten
Q11=Q22=Q33
, wodurch der Kommutator verschwindet. Wie oben erwähnt, können wir dann diagonalisieren
Nich j
ohne die Orthogonalisierung zu stören, und da eine orthogonale Transformation die Eigenwerte aller Eigenwerte nicht stört
Qich j
sind identisch. Wir können also wählen
ein = ( ein , 0 , 0 )
ohne Einschränkung. Wir sind dann frei, uns zu normalisieren
Nich j
, und ggf
A
(nach (6.1) können wir normieren
A
wenn und nur wenn entweder
N22= 0
,
N33= 0
, oder beides), obwohl wir dabei möglicherweise die Normalisierung unserer Triade zerstören (wie auch von den Autoren des Artikels angemerkt).