Unterschied in der kovarianten/kontravarianten Indexierungsreihenfolge in Tensoren

Warnung: Sie fragen sich vielleicht, warum dies nicht in Math Stack Exchange enthalten ist. Tatsächlich ist es so. Ich habe dort vor ein paar Tagen dieselbe Frage gestellt, aber keine Antwort erhalten, und da ich denke, dass diese Frage eher auf die „Physiker-POV“ von Tensoren abzielt und mit Einsteins Konvention zusammenhängt, lasse ich die Frage hier .

Ursprüngliche Frage unten

Ich versuche, Tensorrechnung selbst zu lernen. Ich habe versucht, die Notation für kovariante und kontravariante Indizes einer linearen Transformationsmatrix abzuleiten ( ( 1 , 1 ) Typ Tensor).

Also habe ich folgendes gemacht: Probieren Sie es aus 2 × 2 Fall, und versuchen Sie dann, ein Muster zu finden.

Für Covektoren (kovariant) X ich : (Ich nehme zunächst an, dass beide Indizes der Matrix kontravariant sind, nur um die Notation zu vereinfachen. Ich werde dies später gemäß dem, was ich gefunden habe, "korrigieren").

Wir haben:

[ X 1 ' X 2 ' ] = [ X 1 X 1 ] [ A 11 A 12 A 21 A 22 ]
Und so z X J ' , Ich werde haben:
X J ' = A ich J X ich
(Summenkonvention hier). Hier summiere ich den ersten Index der Matrix. Für den kontravarianten Fall habe ich:
X ich ' = A ich J v J
Daher wird auf dem zweiten Index der Matrix summiert. Also habe ich über das Schreiben gelehrt A als A ich J , dann anrufen ich als kovarianten Index und J als kontravarianten Index. Ist das sinnvoll? Das erste Problem, das ich sehe, ist, dass dies gegen die Summationskonvention verstößt, die besagt, dass die Indizes summiert werden müssen, wenn sie sich an verschiedenen Positionen befinden (z. B.: A ich v ich würde eine Summierung bedeuten ich , Aber A ich v ich würde nicht).

Diese Konstruktion, die ich gemacht habe, wäre äquivalent zu:

A = A ich B J e ich e J

Meine andere Frage ist, ob es möglich ist, zu folgendem zu gelangen:

A = A ich B J e ich e J

Matrizenalgebra verwenden? Ist das möglich?

Ich bin wirklich verwirrt. Ich habe gesehen, wie Tensoren 2. Ordnung geschrieben werden A J ich und wie A ich J . Was ist der Unterschied zwischen ihnen? Verhalten sie sich genauso auf Vektoren?

Diese Art der Tensormanipulation ist als Ricci Calculus en.wikipedia.org/wiki/Ricci_calculus bekannt
Dort schlage ich in den Kommentaren math.stackexchange.com/q/1047994 als Beobachtung vor, wie sich dies in der Mathematik abspielt, aber jetzt unterstütze ich Vitor in der Erwartung, dass jemand hier etwas mehr auf die Anwendungssicht eingehen könnte. Ich werde hochstimmen, weil die Tapferkeit jetzt in PhysSE gefragt wird.
@AccidentalFourierTransform Ich glaube nicht, dass dies ein Duplikat für 1) ist. Ich spreche nicht speziell über Lorentz-Transformationen. 2) Ich bin auch daran interessiert zu wissen, ob ich diese Indizes als kovariant oder kontravariant benennen und in diese Reihenfolge bringen kann. 3) Die zitierte Frage beantwortet auch nicht die Frage, ob ich mit Matrizenalgebra zu beiden Konstruktionen kommen kann. Wenn ich nicht kann, warum nicht?
Ich habe gerade eine sehr ähnliche Frage hier beantwortet . Um es kurz zu machen, es ist sehr leicht, einen Fehler zu machen, wenn man Tensoren als Matrizen behandelt, und ich denke nicht, dass es sich überhaupt lohnt, aber Sie können es zum Laufen bringen.
@knzhou Das ist zwar eine Klärung, aber ich glaube immer noch nicht, dass es meine Frage beantwortet, sondern nur als Klarstellung zu Matrizen und Tensoren dient.

Antworten (1)

Zunächst muss ich sagen, dass Matrizen keine Tensoren sind oder umgekehrt. Matrizen sind nur Arrays von Zahlen, während Tensoren invariante Objekte mit kovarianten oder kontravarianten Komponenten bis zu einer gewissen Basis sind.

Übrigens sind die Gleichheiten, die Sie geschrieben haben, nicht richtig. Wenn Sie auf der einen Seite einen kontravarianten Tensor haben, müssen Sie auch auf der anderen Seite einen kontravarianten haben. Zum Beispiel, X J ' = A ich J X ich sollte sein X J ' = A ich J X ich , oder ähnlich.

Zunächst möchte ich einige Aspekte kovarianter und kontravarianter Transformationen eines Tensors klären, bevor ich die Antwort auf die Frage nach der Reihenfolge der Indizes schreibe, die am Ende trivial wäre.

Tensoren und ihre Komponenten

Tensoren sind keine Matrizen oder Arrays von Zahlen. Tensoren sind Objekte auf einem Vektorraum, der sich als Ganzes unter einer Koordinatentransformation nicht ändert. Vektoren sind ein Beispiel für Tensoren, ein Vektor ist derselbe Vektor, auch wenn Sie ihn in einem anderen Koordinatensystem ausdrücken. Nur die Komponenten ändern sich, da sich die Basen ändern, aber nicht das Ganze.

Das Ausdrücken eines Tensors in Form einer Reihe von Zahlen impliziert also einige spezifische Transformationseigenschaften der Komponenten, abhängig von der Transformation von einer Basis zur anderen. Diese Eigenschaften bestehen aus kovarianten und kontravarianten Transformationen.

Nehmen wir an, wir arbeiten in Koordinatenbasen, D X ich Und X ich . Also Tensoren A Und B könnte in verschiedenen Koordinatensystemen wie folgt geschrieben werden:

(1.a) A = A ich D X ich (1.b) = A ich ' D X ' ich
Und
(2.a) B = B ich X ich (2.b) = B ' ich X ' ich
wo Summationskonvention verwendet wird. Ich habe gerade dieselben Tensoren in verschiedenen Koordinatensystemen geschrieben, gestrichen oder nicht gestrichen.

Die gestrichenen Komponenten könnten also wie folgt als nicht gestrichene Komponenten geschrieben werden:

(Co-Variante) A ich ' = A ich X ich X ' ich
(Gegenvariante) B ' ich = B ich X ' ich X ich

wobei man die Primzahlen gemäß der Kettenregel verfolgen muss, wenn man die Gleichheit zwischen (.a) und (.b) verwendet. Alles, was diesen komponentenbasierten Transformationen gehorcht, was das Objekt unverändert lässt, wird als Tensor bezeichnet .

Jetzt können Sie den Tensor auch in jeder Basis ausdrücken, auch in den nicht koordinierten, dh e A = e ich A D X ich Und e A = ( e 1 ) A ich X ich wo die invertierbare Karte, e ich A ( X ) , heißt Tetradenfeld oder Vierbein (in 4D). Die neuen Komponenten wären also A A = A ich ( e 1 ) A ich Und B A = B ich e ich A , bzw.

Wenn Sie die richtige Version der von Ihnen geschriebenen Gleichheit betrachten, v J ' = A ich J v ich , in diesem Zusammenhang habe ich oben erklärt, können Sie sehen, wie es gültig wird, wenn Sie die Koordinatentransformationen explizit schreiben.

Reihenfolge der Indizes und des metrischen Tensors

Andererseits wird die Beziehung zwischen den kovarianten und kontravarianten Komponenten über eine Karte namens metric gehandhabt :

A ich = G ich J A J
und das kannst du ganz einfach zeigen G ich J sind auch Bestandteile eines Tensors, da beide Seiten dieser Identität kovariant transformieren müssen.

Nehmen wir nun einen Tensor zweiten Ranges, T ich J . Die Reihenfolge der Indizes ist wichtig, wenn der Tensor asymmetrisch ist, dh T ich J T J ich . Wenn Sie den ersten bzw. zweiten Index über die Metrik erhöhen ,

T ich J = G ich k T k J T J ich = G ich k T J k
es wird offensichtlich, dass sie nur dann und nur dann gleich sein können T ich J ist symmetrisch in seinen Indizes.

Danke für deine Antwort. 1: Ich habe gesagt, dass meine Gleichheiten in Bezug auf die Indizes falsch sind, dass ich sie später korrigieren würde. Ich kann deine Antwort nicht ganz nachvollziehen. Können Sie erklären, warum Sie sich entschieden haben? D X ich Und X ich als Grundlage? Und nicht einige andere Basisvektoren? Ich verstehe auch nicht, was Sie mit "Prime" -Komponenten meinen. Eine andere Sache: Im letzten Absatz (der meiner Meinung nach die Frage beantworten soll) haben Sie, wie mir scheint, den Unterschied zwischen erklärt T J ich Und T J ich . Tut mir leid, ich kann das nicht mit dem Unterschied zwischen in Verbindung bringen T J ich Und T ich J .
Was die Prämie betrifft, die abgelaufen ist, werde ich eine neue starten, da ich in letzter Zeit nicht auf die Seite zugreifen konnte.
OK, danke für das Feedback, ich werde die Antwort bearbeiten.