Warum erhöhen und verringern wir Indizes von Tensoren verschiedener Gruppen mit den Invarianten dieser Gruppe?

Wenn T ich J ist Tensor, der unter transformiert S Ö ( N ) dann spielt es anscheinend (nach dem, was mir gesagt wurde) keine Rolle, ob wir die Indizes nach oben oder nach unten setzen.

Wenn wir stattdessen einen Tensor haben, der nach unten transformiert S U ( N ) dann ist es wichtig.

Ich verstehe, dass es mit den Invarianten der Gruppen zu tun hat, aber ich bin nicht in der Lage gewesen, es mathematisch zu verstehen. Jede Hilfe wird sehr geschätzt.

Vielleicht möchten Sie sich über das Killing-Formular encyclopediaofmath.org/index.php/Killing_form informieren , das als metrischer Tensor fungiert und das Erhöhen und Senken von Indizes ermöglicht.
Ich denke, es hat mit der Tatsache zu tun, dass sich Indizes an verschiedenen Positionen unter verschiedenen Darstellungen der genannten Gruppe transformieren, aber oft kann gezeigt werden, dass die beiden Wiederholungen äquivalent sind und die Gruppenmetrik die Matrix ist, die die Äquivalenz zwischen den beiden ausdrückt. So habe ich es zumindest in der App verstanden SL ( 2 , C Spinor-Fall.
Es hängt davon ab, was die Position der Indizes bedeutet: Wenn der Tensor alle kovarianten oder kontravarianten Indizes hat, spielt es keine Rolle, ob die Indizes oben oder unten sind; Wenn es sich um einen gemischten Tensor handelt, ist dies der Fall, da die Position uns sagt, ob diese bestimmte Komponente kovariant oder kontravariant ist.
@ MoziburUllah Das ist nicht wahr. Wir treffen eine Wahl, welchen Isomorphismus wir verwenden, um Indizes zu erhöhen und zu verringern (dh um Vektoren auf ihre dualen Werte abzubilden), normalerweise durch unsere Wahl des Skalarprodukts auf dem Vektorraum. Wenn eine Transformation diesen Isomorphismus respektiert, transformieren sich Vektoren und Covektoren (und damit Tensoren höheren Ranges) auf die gleiche Weise. Ansonsten sind die Transformationsgesetze unterschiedlich. (1/2)
Zum Beispiel - in GR wird die Abbildung durch die Operation des metrischen Tensors definiert. Orthogonale Transformationen spiegeln die Metrik wider ( G ( R ( X ) , R ( Y ) ) = G ( X , Y ) ), also haben kovariante und kontravariante Tensoren identische Transformationsgesetze unter orthogonalen Transformationen. OTOH, in QM hat das innere Produkt eine besonders komplexe Konjugation, also transformieren Bras und Kets auf die gleiche Weise unter unitären Transformationen, aber nicht bei orthogonalen, und Tensoroperatoren erben diese Regeln (2/2).
und Operatoren erben diese Regeln im Allgemeinen , hoppla. Siehe zum Beispiel die Transformationsgesetze, die Operatoren in den Schrödinger-, Heisenberg- und Interaktionsbildern in Beziehung setzen.
@J.Murray: Was genau habe ich gesagt, dass das nicht stimmt? Ich sehe nicht, wo ich unklar war. Wenn Sie duale Leerzeichen verwenden, haben Sie sowohl kovariante als auch kontravariante Indizes. In diesem Fall handelt es sich um einen "gemischten" Tensor. In diesem Fall habe ich geschrieben, dass es darauf ankommt, wo man Indizes setzt.
@J.Murray: Sie brauchen sicherlich kein doppeltes Leerzeichen, nur um einen Vektor in Bezug auf eine Basiswahl zu erweitern.
@MoziburUllah Sie sagten "es spielt keine Rolle, ob die Indizes oben oder unten sind", und das stimmt absolut nicht. T μ v Und T μ v im Allgemeinen unterschiedlich transformieren und nicht einmal Bestandteile desselben Objekts sind.
@MoziburUllah Sie brauchen kein doppeltes Leerzeichen, um einen Vektor in seine Komponenten zu erweitern, aber Sie tun es sicherlich, um eine Vorstellung von Kovarianz vs. Kontravarianz zu haben, was für diese Frage von zentraler Bedeutung ist.
Der andere Ort, an dem es keine Rolle spielt, wo wir Indizes setzen, ist der metrische Tensor selbst, da uns das Skalarprodukt einen natürlichen Isomorphismus zwischen einem Vektorraum und seinem Dual liefert.
@J.Murray: ja, sicher; und ich erwähnte den Fall gemischter Tensoren; Hast du meinen Kommentar tatsächlich gelesen oder hast du dich einfach entschieden, deine eigene Lektüre dessen zu finden, was ich geschrieben habe?

Antworten (1)

Lassen Sie uns das in Teile aufschlüsseln. Das ist mit ziemlicher Sicherheit übertrieben, aber hoffentlich wird es klar sein, und Sie können die Bits überspringen, die Sie nicht benötigen.

Ein Rang-(0,2)-Tensor T ist eine multilineare Abbildung, die zwei Vektoren nimmt und eine reelle (oder komplexe) Zahl zurückgibt. Wenn wir es komponentenweise aufschreiben, schreiben wir seine Indizes auf.

Wenn unser Vektorraum mit einem symmetrischen, nicht entarteten metrischen Rang-(0,2)-Tensor ausgestattet ist G , dann können wir ein inneres Produkt zwischen zwei Vektoren definieren X Und Y folgendermaßen:

X , Y = G ( X , Y ) = G ( X a e a , Y β e β ) = X a Y β G ( e a , e β ) X a Y β G a β

(so extrahieren wir die Komponenten eines Tensors - indem wir ihn auf der Grundlage des Vektorraums arbeiten lassen)

Ausgehend von einem Vektorraum können wir einen dualen Vektorraum derselben Dimension definieren, dessen Elemente duale Vektoren oder Kovektoren genannt werden. Wenn die Basis des Vektorraums gegeben ist durch { e a } , dann ist die kanonische Basis des Kovektorraums gegeben durch { ϵ a } und ist dadurch definiert, dass die Covektorbasen auf der Vektorbasis wie folgt wirken:

ϵ a ( e β ) = δ β a { 1   a = β   0   a β

Also ein Covektor ω kann auf einen Vektor wirken X so was:

ω ( X ) = ω a ϵ a ( X β e β ) = ω a X β ϵ a ( e β ) = ω a X β δ β a = ω a X a


Mit der Metrik können wir einen Isomorphismus zwischen einem Vektorraum und dem Covektorraum definieren, der einen Vektor abbildet X zu einem Covektor X ~ die auf einen Vektor wirkt Y auf die folgende Weise:

X ~ ( Y ) = G ( X , Y )
oder in Komponentenform,
X ~ ( Y ) = X ~ a ϵ a ( Y β e β ) = X ~ a Y a = G a β X β Y a
So
X ~ a = G a β X β

Offensichtlich X ~ Und X sind völlig unterschiedliche Objekte und bewohnen völlig unterschiedliche Räume, aber sie stehen in einer Eins-zu-Eins-Entsprechung, und daher neigen die Leute dazu, sie locker als verschiedene "Versionen" derselben Sache zu betrachten. In diesem Sinne sprechen wir von „Erhöhen“ und „Senken“ der Indizes.


Der oben erwähnte Isomorphismus kann auch auf Tensoren angewendet werden. Wir können zuerst eine "inverse Metrik" definieren G ~ Dies ist ein symmetrischer Rang-(2,0) -Tensor und wirkt auf duale Vektoren unter Berücksichtigung des Isomorphismus auf folgende Weise:

G ~ ( X ~ , Y ~ ) = G ( X , Y )

Es ist nicht schwer zu sehen, wie dies komponentenweise definiert ist:

G ~ ( X ~ a ϵ a , Y ~ β ϵ β ) = X ~ a Y ~ β G ~ a β = G a ρ X ρ G β σ Y σ G ~ a β = X ρ Y σ G ρ σ
So
G ~ a β G a ρ G β σ = G ρ σ
was das impliziert
G ~ a β G a ρ = δ ρ β

Von dort aus können wir einen allgemeinen Isomorphismus zwischen Tensoren wie folgt definieren:

T ~ ( X ~ , Y ~ ) = T ~ ( X ~ a ϵ a , Y ~ β ϵ β ) = X ~ a Y ~ β T ~ a β
denen wir gleich sein wollen
T ( X , Y ) = T ( X a e a , Y β e β ) = X a Y β T a β

Vergleicht man die beiden, ist das klar

T ~ a β = G ~ a ρ G ~ β σ T ρ σ

Nochmal, T ~ Und T sind unterschiedliche Objekte, die unterschiedliche Räume bewohnen , aber sie stehen in Eins-zu-Eins-Entsprechung und ihre Komponenten stehen wie oben in Beziehung.


Okay. Nun fragen wir also, was es bedeutet, wenn sich ein Tensor nach einer bestimmten Transformationsregel transformiert. Lassen R ein linearer Endomorphismus auf dem Vektorraum sein, der einen Vektor abbildet X zu einem anderen Vektor X ' = R ( X ) :

X ' = X ' a e a = R ( X β e β ) = ( R     β a X β ) e a

und so

X ' a = R     β a X β

Eine orthogonale Transformation ist eine, die das innere Produkt respektiert:

G ( X ' , Y ' ) = G ( R     ρ a X ρ e a , R     σ β Y σ e β ) = R     ρ a R     σ β X ρ Y σ G ( e a , e β )
= R     ρ a R     σ β X ρ Y σ G a β
= G ( X , Y ) = G ρ σ X ρ Y σ
So
R     ρ a R     σ β G a β = G ρ σ

Wenn wir das in Matrixform schreiben, dann R     ρ a = ( R T ) ρ     a und das wird

R T G R = G
Entsprechend können wir die umgekehrte Metrik anwenden, die ergibt
G ~ R T G R = G ~ G = 1
was das impliziert
G ~ R T G = R 1 R T = G R 1 G ~ R = G ~ ( R 1 ) T G
und deshalb das
R 1 = R T
wo wir das verwendet haben G ist symmetrisch.


Was passiert, wenn wir eine einheitliche Transformation verwenden? U eher als ein orthogonales? Nun, es ändert sich nicht viel, aber jetzt respektiert die Transformation das sesquilineare innere Produkt

X , Y = G ( X ¯ , Y )
Wo X ¯ = X ¯ a e a Und X ¯ a ist das komplexe Konjugat von X a . Wenn wir den gleichen Prozess durchlaufen, finden wir das

U ¯     ρ a U     σ β G a β = G ρ σ
oder in Matrixform (wobei bezeichnet die konjugierte Transponierte),
U G U = G
und so
G ~ U G = U 1 U = G U 1 G ~ U = G ~ ( U 1 ) G
und deshalb das
U 1 = U

wo wir das verwendet haben G symmetrisch ist und dass seine Komponenten reell sind.


Wir können auch fragen, wie ein allgemeiner Tensor T T ' muss sich unter einer Gruppenaktion umwandeln Q wenn wir gehen sollen T ( X , Y ) unveränderlich. Wir machen im Grunde dasselbe wie vorher (ohne zu fordern, dass die T ' = T ), und wir kommen zu

Q     ρ a Q     σ β T a β ' = T ρ σ
Da die Gruppenaktion umkehrbar ist, können wir schreiben
T a β ' = ( Q 1 )     a ρ ( Q 1 )     β σ T ρ σ
oder in Matrixform

T ' = ( Q 1 ) T T Q 1


Nun zum letzten Stück. Wie transformieren sich die dualen Tensoren angesichts all der Maschinen, die wir konstruiert haben ? Also,

T ~ a β = G ~ a ρ G ~ β σ T ρ σ

also (unter einer linearen Transformation Q )

T ~ ' a β = G ~ a ρ G ~ β σ T ρ σ ' = G ~ a ρ G ~ β σ ( Q 1 )     ρ μ ( Q 1 )     σ v T μ v

= G ~ a ρ G ~ β σ ( Q 1 )     ρ μ ( Q 1 )     σ v G μ η G v τ T ~ η τ

Mit ein wenig Ellenbogenfett kann dies in Matrixform gebracht werden:

T ~ ' = [ G ~ ( Q 1 ) T G ] T ~ [ G Q 1 G ~ ]


Ein bisschen eklig, aber meh. Was passiert, wenn diese Transformation orthogonal ist ? Wir können sofort antworten, basierend auf unserer harten Arbeit von früher. Wir haben das gefunden

G ~ ( R 1 ) T G = R

und das

G R 1 G ~ = R T

also in Matrixform,

T ~ ' = R T ~ R T
wohingegen
T ' = ( R 1 ) T T R 1
weil orthogonale Transformationen so sind R T = R 1 , der Tensor T und sein Dual T ~ genau so umwandeln.


Was ist andererseits, wenn die Transformation einheitlich ist ? Der Tensor T transformiert sich wie zuvor:

T ' = U T U T
aber jetzt sind die Umkehrung und die Transponierung nicht dasselbe, und so transformiert sich der Duell-Tensor wie folgt
T ~ ' = U ¯ T ~ U ¯ T
Wo U ¯ ist das komplexe Konjugat von U .