Was bedeutet es, die Indizes einer Lorentz-Matrix zusammenzuziehen?

Der metrische Tensor in SR gehorcht dem Transformationsgesetz (ich verwende die Balkennotation von Schutz für verschiedene Rahmenindizes):

η a ¯ β ¯ = Λ   a ¯ μ   Λ   β ¯ v   η   μ v

Wenn ich mich nicht irre, kann die zweite Lorentz-Matrix wie folgt mit der Metrik kontrahiert werden:

η a ¯ β ¯ = Λ   a ¯ μ   Λ   μ β ¯

Dies scheint falsch zu sein, da die Lorentz-Matrix-Elemente normalerweise mit einem oberen und einem unteren Index geschrieben werden, und ich verstehe nicht, wie Λ μ β ¯ könnte in einer Matrixdarstellung geschrieben werden.

Aus verschiedenen Quellen wurde mir auch gesagt, dass die obigen Gleichungen der Matrixmultiplikation mit der Transponierten entsprechen Λ :

η = Λ η Λ T

  • Transponiert es die Kontraktion der Lorentz-Matrix?

  • Was sind die Unterschiede zw Λ   v ¯ μ , Λ   v μ ¯ , Λ μ v ¯ Und Λ μ v ¯ ? Welche davon sind Inverse und welche Transponierte?

Möchten Sie lieber einen mathematischen Einblick in das, was vor sich geht, oder einen pragmatischeren Ansatz, wie die Berechnungen in den Indexnotationen funktionieren?
@KilianM Ich verstehe, wie man Einsteins Summationskonvention anwendet, damit ich die Antworten durch Berechnung erhalte. Ich bin mehr verwirrt über die Intuition und ja, die Einsicht hinter dem, was vor sich geht - wie die Auswirkungen des Absenkens / Anhebens des Index auf die Matrixdarstellung

Antworten (3)

Beachten Sie, dass Λ ist selbst kein Tensor. Es ist eine Matrix von Transformationskoeffizienten.

Ein Tensor ist in Abwesenheit eines bestimmten Rahmens wohldefiniert, und seine Komponenten können in dem einen oder anderen Rahmen definiert werden. Die Lorentz-Transformation hingegen wird verwendet, um zu berechnen, wie sich Tensorkomponenten von einem Frame zum anderen ändern.

Das Kontrahieren eines Aufwärts- und eines Abwärtsindex auf einen Tensor zweiter Ordnung ergibt einen Tensor nullter Ordnung, d. h. einen invarianten Skalar. Kontrahieren eines Aufwärts- und eines Abwärtsindex auf einen Nicht-Tensor wie z Λ B A wird ein mathematisches Ergebnis liefern, aber es ist nicht garantiert, dass es sich um eine Größe von besonderem Interesse handelt. Ebenso die Kombination von Metrik mit Λ B A kann verwendet werden, um eine Menge mit allen Indizes zu erhalten, aber es ist kein Tensor und es ist am besten, diese Index-Gymnastik nicht mit Nicht-Tensoren zu spielen. Lass einfach Λ B A sein, was es ist.

Bei einem zweitrangigen Tensor entspricht das Absenken des ersten Index dem Vorabmultiplizieren mit der Metrik in der Matrixsprache; das Senken des zweiten Index entspricht dem nachträglichen Multiplizieren mit der Metrik. Die Transponierungsoperation entspricht der Umkehrung der Reihenfolge der Indizes (NB ohne sie nach oben oder unten zu verschieben). Zum Beispiel

Λ μ A Λ v B F μ v = Λ μ A F μ v Λ v B = Λ μ A F μ v ( Λ T ) v B
und in Matrixnotation kann diese Kombination geschrieben werden
Λ F Λ T

Ich denke, ich verstehe, dass Sie nicht zu viel mit dem Absenken/Anheben von Indizes in der Lorentz-Matrix herumspielen sollten, aber ich habe mich mehr gefragt, wie das Absenken/Anheben als Transformation der Matrixdarstellung interpretiert wird, dh Transponieren/Invertieren der Matrix . Wie bekommt man das transponierte Ergebnis aus dem erniedrigten Index Λ μ v ¯ über?
@HexiangChang Ich habe einige weitere Informationen hinzugefügt, um diese Punkte anzusprechen.

Zunächst eine kurze Einführung in die Tensoren. Ein ( R , S ) Tensor T auf einen K -Vektorraum v ist nur eine multilineare Karte aus S Kopien von v Und R Kopien des dualen Vektorraums v zum darunter liegenden Feld K :

T : v × . . . × v R T ich M e S × v × . . . × v S T ich M e S K
Der duale Vektorraum setzt sich einfach aus der Menge aller linearen Abbildungen zusammen v Zu K . Der Satz von allem ( R , S ) Tensoren an v wird gemeinhin bezeichnet T S R ( v ) .

Ok, wie kommen wir von diesen Vektoren und linearen Abbildungen zu diesen Zahlen G μ v mit denen wir arbeiten?

Nun, wir tun, was wir immer intuitiv tun, nämlich eine Basis zu wählen. Angenommen, wir haben uns für eine Basis entschieden { e ich } v Auf unserem Vektorraum können wir jetzt jeden Vektor ausdrücken v v als Linearkombination dieser Basisvektoren: v = v ich e ich . Der v ich K sind im Grunde Zahlen und die Position des Index ist bisher nur eine Konvention. Dasselbe können wir jetzt für den dualen Vektorraum tun, mit einer besonders geschickten Wahl der Basis { e ich } v , so dass e ich ( e J ) = δ J ich . Auch hier ist die Position des Index nur eine Konvention, um Vektoren und duale Vektoren nicht zu verwechseln, da dies grundlegend unterschiedliche Objekte sind!

Mit dieser Indexkonvention würden wir nun die Komponenten eines Vektors schreiben als v ich und eines dualen Vektors als v ich .

Bei den Tensoren ist es ganz ähnlich:

T ( w k ( 1 ) e k , . . . , w l ( R ) e l , v ( 1 ) ich e ich , . . . , v ( S ) J e J ) = w k ( 1 ) . . . w l ( R ) v ( 1 ) ich . . . v ( S ) J T ( e k , . . . , e l , e ich , . . . , e J )
Der T ( e k , . . . , e l , e ich , . . . , e J ) T ich . . . J k . . . l sind wieder nur Zahlen, unabhängig davon, auf welche Vektoren und Covektoren der Tensor wirkt (nur die Basis, die wir gewählt haben). Ähnlich wie die Vektoren und Covektoren können wir auch den Tensor durch seine Komponenten ausdrücken:
T = T ich . . . J k . . . l e k . . . e l e ich . . . e J

Ok, was passiert, wenn wir eine andere Basis wählen? { B ich } v und eine entsprechende duale Basis { B ich } v ? Da unsere neuen Basisvektoren (und neuen Basis-Covektoren) immer noch Elemente desselben zugrunde liegenden (Dual-)Vektorraums sind, können wir sie als eine Linearkombination ausdrücken:

B ich = A ich J e J Und B ich = B J ich e J
Ähnlich wie oben können wir die Zahlen anzeigen A ich J Und B J ich als Komponenten eines Tensors:
A = A ich J e J B ich Und B = B J ich B ich e J
Hinweis : In der Physik betrachten wir diese Transformationen normalerweise nicht als Tensoren, aber ich denke, das ist für unsere Diskussion hier sehr nützlich. Für weitere Informationen siehe zB ( Ist die Lorentz-Transformation ein Tensor? )

Nun zum Schluss, was bedeutet es eigentlich, zwei Tensoren zusammenzuziehen? Tensorkontraktionen werden wirklich nur für einen einzelnen Tensor definiert und sind lineare Abbildungen C l k : T S R ( v ) T S 1 R 1 ( v ) definiert von:

T μ 1 . . . μ S v 1 . . . v R e v 1 . . . e v R e μ 1 . . . e μ S T μ 1 . . . μ S v 1 . . . v R e μ l ( e v k ) e v 1 . . . e v l 1 e v l + 1 . . . e v R e μ 1 . . . e μ k 1 e μ k + 1 . . . e μ S )
Aber das ist kein Problem, da wir mit dem Tensorprodukt aus zwei Tensoren einen machen können. In Ihrem speziellen Fall haben wir den "Tensor" Λ = Λ μ v e v B μ und der Tensor η = η μ v e μ e v :
η Λ = η μ v Λ β a e μ e v e a B β
Und
C v a ( η Λ ) = η μ v Λ β a e v ( e a ) e μ B β = η μ v Λ β v e μ B β Λ μ β e μ B β
In GR (und SR) ist die Raumzeit eine Lorentzsche Mannigfaltigkeit L , ist der interessierende Vektorraum der Tangentialraum T P L irgendwann P L und die Tensoren, die Sie in Betracht ziehen, haben eine besondere Bedeutung, aber (wie immer) kümmert sich die Mathematik nicht zu sehr um die Physik.

Warum dürfen Sie die Lorentz-Matrix als Tensor behandeln? Ändert sich Ihr Ergebnis, wenn es nicht als Tensor behandelt wird? (
Aus den Komponenten kann man einen Tensor konstruieren Λ v μ so wie ich es beschrieben habe, aber da es sich dann um ein tensorprodukt der alten und neuen basis(co)vektoren handelt, transformieren sich die komponenten nicht wie erwartet unter basiswechsel. Wenn Sie jedoch genau über diese mathematischen Ideen wie Kontraktion usw. sprechen möchten, ist es ziemlich hilfreich, ein genaues Verständnis dessen zu haben, was wir tun.

Ich habe eine ganze Weile gebraucht, um an den Anfang des Relativismus-Unterrichts zu kommen, aber das hier kann helfen: Eine allgemeine Matrixmultiplikation, wie wir sie alle kennen, sieht so aus:

[ A ] [ B ] = A R ich B ich R
Nun würde die Relativitätsversion mit Einstein-Summierungskonvention diese Matrixmultiplikation so aussehen lassen:
[ A ] [ B ] = A v σ B σ v
Wie Sie sehen, ist dies dasselbe wie in der vorherigen Anweisung, wobei nur das Summationssymbol weggelassen wurde und somit der erste Index die Zeile und der zweite die Spalte darstellt. Nun gibt es möglicherweise Leute, die eine Erklärung dafür haben, wie sich ein (2,0) (dh 'kovariante') Tensor von einem (0,2) (dh 'kontravarianten') Tensor unterscheidet, aber ich behalte die Regel nur in meinem Kopf dass Sie nur kovariante mit kontravarianten Indizes kontrahieren können und somit eine Metrik der Form anwenden G μ μ ( G μ μ ), wenn es notwendig ist, Indizes zu senken (steigen). Um zur Form von Matrizen zu gelangen, ist es notwendig, den Tensor wieder in eine Matrixform umzuwandeln, indem man ihn mit einer Metrik kontrahiert. Ich werde die Minkowski-Metrik verwenden η hier zur Vorführung. Dies bringt uns zurück zu Ihrer Frage, Ihre Gleichung kann wie folgt geschrieben werden:
Λ σ a η μ σ Λ v σ η β σ η μ v = Λ σ a η β σ Λ v σ δ v σ = Λ v a η β σ Λ v σ = v β [ Λ ] [ η ] [ Λ ] T
Wobei ich das nämlich ausgenutzt habe
η μ σ η β σ = δ σ μ
Und nur das grundlegende Steigen und Senken von Indizes über:
Λ a μ = Λ σ a η μ σ  Und  Λ μ a = Λ σ a η μ σ

Ich hätte irgendwo einen Indexfehler machen können, aber ich hoffe, das gibt eine Art Verständnis und ich hoffe, es hilft.

Es ist nicht wirklich nur „Benennen“, denn die Objekte, mit denen Sie arbeiten, sind keine Matrizen, sondern Tensoren. Für Berechnungen ist es am bequemsten, nur mit den Komponenten dieser Tensoren in einer bestimmten Basis zu arbeiten und die unteren und oberen Indizes haben dann eine genaue Bedeutung.
Ich habe es geändert, ist es jetzt richtiger?
Bitte verwenden Sie nicht zwei Paare identischer Indizes in einem Ausdruck