Den Unterschied zwischen ko- und kontravarianten Vektoren verstehen

Ich schaue mir die 4-Vektor-Behandlung der speziellen Relativitätstheorie an, aber ich habe keine formelle Ausbildung in Tensoralgebra und habe daher Schwierigkeiten, einige der auftretenden Konzepte zu verstehen.

Ein solches Konzept ist die Vorstellung von kontra- und kovarianten Vektoren. Wikipedia beschreibt einen kontravarianten Vektor als mit den Koordinaten variierend, dh dem Kehrwert der Referenzachsen. Es gibt das Beispiel einer Basiswechselmatrix M , und ein kontravarianter Vektor v und besagt, dass wir im neuen Koordinatensatz haben:

v ' = M v

Es besagt dann, dass ein kovarianter Vektor mit den Koordinatenachsen variiert.

Bedeutet dies, dass für einen kovarianten Vektor u und Änderung der Basismatrix M wir haben:

u ' = M 1 u ?

Ich habe auch Probleme, das Konzept des Anhebens und Absenkens von Indizes zu verstehen. Zum Beispiel gibt Wikipedia das für zwei Vierervektoren an A , B und unter Verwendung der Einstein-Summierung haben wir:

A | B = A μ B μ = A v B v

Und ich habe Schwierigkeiten zu verstehen, wie dies mit der anderen Definition des inneren Produkts zusammenhängt:

A | B = A T η B

Wenn mir jemand helfen könnte, diese Konzepte intuitiver zu verstehen, wäre ich dankbar.

„Bedeutet das für einen kovarianten Vektor u und Änderung der Basismatrix M wir haben: u ' = M 1 u ?" Schnelle Antwort: Ja, absolut. Das "innere Produkt", dh ein Skalar, zwischen einem Vektor und einem Covektor muss koordinatenunabhängig sein, also muss sich der Covektor transformieren, wie Sie sagen. Schauen Sie sich Kip Thornes hervorragendes Lehrbuch an : Lesen Sie Kapitel 1 und ich bin sicher, Sie werden viel klüger sein: pma.caltech.edu/Courses/ph136/yr2011/1101.2.K.pdf
Schauen Sie sich auch physical.stackexchange.com/q/87775/26076 an. Meine bevorzugte Art, den Tangentenraum (kontravariante oder "alltägliche" Vektoren) zu visualisieren, ist meine Antwort auf diese Frage. Das erste Kapitel von Schutz "A First Course on General Relativity" gibt auch eine gute Beschreibung.
Jemand sollte in seine Antwort das Beispiel aufnehmen, dass der Gradient tatsächlich ein Covektor ist. Ich fand dieses Beispiel sehr hilfreich, um etwas über dieses Thema zu lernen.

Antworten (2)

Kontravariante Vektoren sind "Standard"-Vektoren. Kovariante Vektoren sind lineare Anwendungen auf kontavariante Vektoren, die Skalare erzeugen.

Beginnen wir mit dem ersten Fall. Wenn Sie ein paar Basen reparieren { e ich } ich = 1 , , N Und { e ich ' } ich = 1 , , N im endlichdimensionalen Vektorraum v mit Abmessung N , so dass e ich = J A J ich e J ' für Satz von Koeffizienten A J ich Bilden einer (notwendigerweise) nicht-singulären Matrix A , haben Sie für einen gegebenen Vektor v v :

v = ich v ich e ich = J v ' J e J '
und damit
ich v ich J A J ich e J ' = J v ' J e J '
so dass:
J ( ich A J ich v ich ) e J ' = J v ' J e J ' .
Eindeutigkeit von Komponenten von v hinsichtlich { e ich ' } ich = 1 , , N beinhaltet schließlich:
(1) v ' J = ich A J ich v ich Wo e ich = J A J ich e J '
Dies ist nichts anderes als die Standardregel zum Transformieren von Komponenten eines gegebenen kontravarianten Vektors, wenn man die Zerlegungsbasis ändert.

Lassen Sie uns übergehen, um kovariante Vektoren zu betrachten. Wie ich oben sagte, ist ein kovarianter Vektor nichts anderes als eine lineare Abbildung ω : v R ( R kann ersetzt werden durch C bei komplexen Vektorräumen oder dem entsprechenden Ring bei Modulbetrachtung). Man beweist leicht, dass die Menge der reellwertigen linearen Anwendungen wie oben einen Vektorraum bildet, v , der sogenannte duale Raum von v . Wenn { e ich } ich = 1 , , N ist eine Grundlage von v , gibt es eine zugehörige Basis

{ e ich } ich = 1 , , N
von v , die duale Basis , definiert durch die Anforderungen (zusätzlich zur Linearität):
(2) e k ( e ich ) = δ ich k
Daher ein kovarianter Vektor ω v kann immer wie folgt zerlegt werden:
ω = k ω k e k
und unter Verwendung der Linearität (2) und
v = ich v ich e ich
man sieht, dass
ω ( v ) = k ω k v k .
Die RHS hängt nicht von der Wahl der Basis ab { e ich } ich = 1 , , N und das entsprechende { e ich } ich = 1 , , N auch wenn es sich um Komponenten von kovarianten und kontravarianten Vektoren handelt ω Und v hängen von den betrachteten Basen ab. Offensichtlich ändert sich die Basis in v und weitergeben { e ich ' } ich = 1 , , N bezüglich { e ich } ich = 1 , , N durch (1), { e ich ' } ich = 1 , , N entpuppt sich als Entsprechung einer dualen Basis { e ' ich } ich = 1 , , N . Eine einfache Berechnung basierend auf (2) zeigt dies
e ich = J B J ich e ' J
Wo
(3) B = ( A T ) 1 .
Folglich für einen kovarianten Vektor
ω = ich ω ich e ich = J ω J ' e ' J
Wo
(4) ω J ' = J B J ich ω ich .
Diese Beziehung ist zusammen mit (3) nichts anderes als die Standardregel zum Transformieren von Komponenten eines gegebenen kovarianten Vektors, wenn man die Zerlegungsbasis ändert.

Diese Struktur taucht selten auf, wenn es um die klassische Physik geht, wo man sich normalerweise mit Orthonormalbasis beschäftigt. Der Grund dafür ist, dass beim Basiswechsel und Übergang zu einer anderen orthonormalen Basis die Matrix A Die Zuordnung der Basen befindet sich in der orthogonalen Gruppe, sodass:

(3) B = ( A T ) 1 = A .
und man kann, wenn man in Komponenten arbeitet, nicht zwischen kovarianten und kontravarianten Vektoren unterscheiden, da die ersteren in (1) und (4) tatsächlich identisch sind. Zum Beispiel für eine feste Kraft F mit Geschwindigkeit auf einen Punkt angewendet v , die lineare Karte, die die Kraft mit ihrer Leistung als Funktion von verknüpft v definiert einen kovarianten Vektor, den wir angeben könnten " F "
π ( F ) : v F v
Wo bezeichnet das Standard-Skalarprodukt im euklidischen Ruheraum eines Referenzrahmens.

Wenn der (echte endlichdimensionale!) Vektorraum v ist mit einem im Allgemeinen unbestimmten Skalarprodukt ausgestattet, dh einer nicht entarteten symmetrischen bilinearen Abbildung G : v × v R , eine natürliche Identifizierung von v Und v entsteht. Es ist nichts anderes als die lineare und bijektive Abbildung, die kontravariante Vektoren mit kovarianten Vektoren verknüpft:

v v G ( v , ) v
Wo, offensichtlich G ( v , ) : v u G ( v , u ) R erweist sich als linear und definiert somit ein Element von v wie gesagt. In Komponenten, wenn u = ich u ich e ich Und S = ich S ich e ich , hat man im Hinblick auf die Bilinearität die Eigenschaft von erfüllt G :
G ( u , S ) = ich , J G ich J u ich S J Wo G ich J := G ( e ich , e J ) .
Die Matrix der Elemente G ich J ist symmetrisch und nichtsingulär (als G ist symmetrisch und nicht entartet). Mit dieser Definition sieht man leicht, dass, wenn u v ein kontravarianter Vektor ist, der zugehörige kovariante G ( u , ) v hat Komponenten:
G ( u , ) k = ich G k ich u ich
also das Skalarprodukt G ( u , v ) von u Und v kann auch geschrieben werden:
G ( u , v ) = ich J G ich J u ich v J = ich v ich u ich .

Schließlich hat man bei wechselnder Basis Folgendes:

G ( u , S ) = ich , J G l M ' u ' l S ' M Wo G l M ' := G ( e l ' , e M ' ) ,
Und
G l M ' = ich J B l ich B M J G ich l .

Kovariante und kontravariante Vektoren können als verschiedene Arten von Vektoren in der Physik betrachtet werden. Die meisten Vektoren, die in der üblichen klassischen Physik vorkommen, wie Position, Geschwindigkeit usw., sind kontravariant, während der Gradientenoperator (der überraschenderweise vektorartig ist; sehen Sie sich die meisten Vektoridentitäten an) ein kovarianter Vektor ist. Um mathematisch strenger zu sein, bilden sie duale Räume voneinander, genau wie die Bra- und Ket-Räume in der Quantenmechanik.

Um ein formales Verständnis dafür zu bekommen, wie sich Kovarianz und Kontravarianz unterscheiden, müssen Sie sehen, wie sich die entsprechenden Vektoren ändern, wenn sie Transformationen unterzogen werden. Siehe zum Beispiel: http://en.wikipedia.org/wiki/Covariance_and_contravariance_of_vectors Lesen Sie den Definitionsabschnitt sorgfältig durch. Als sehr einfaches Beispiel ist der kovariante Vektor eines Spaltenvektors ein Zeilenvektor. Für eine komplexe Zahl ergibt eine ähnliche Definition ihr Konjugat.

Wenn es um innere Produkte geht, hängt es normalerweise davon ab, mit welchem ​​​​Raum Sie arbeiten. Wenn es sich um Matrizen handelt, ist das Skalarprodukt auf eine Weise definiert. Wenn Sie an einem Hilbert-Raum arbeiten, ist das Skalarprodukt als Integral des Bra- und Ket-Vektors über den gesamten Raum definiert.

In der speziellen Relativitätstheorie wird das Skalarprodukt normalerweise basierend auf der Metrik definiert.

A B = η μ v A μ B v

Dies kann als Multiplizieren der Matrix angesehen werden η mit den Matrizen A , B .

Die Metrik ist auch beim Anheben und Absenken der Matrizen hilfreich.