Sind kovariante Vektoren als Zeilenvektoren und kontravariante als Spaltenvektoren darstellbar?

Ich würde gerne wissen, welchen Gültigkeitsbereich die folgende Aussage hat:

Kovariante Vektoren sind als Zeilenvektoren darstellbar. Kontravariante Vektoren sind als Spaltenvektoren darstellbar.

Wir wissen zum Beispiel, dass der Gradient einer Funktion als Zeilenvektor im gewöhnlichen Raum darstellbar ist R 3

f = [ f x , f j , f z ]

und ein gewöhnlicher Vektor ist ein Spaltenvektor

x = [ x 1 , x 2 , x 3 ] T

Ich denke, dass dies in der speziellen Relativitätstheorie weiterhin gültig ist (Minkowski-Metrik ist flach), aber in der allgemeinen Relativitätstheorie bin ich mir nicht sicher.

Können Sie mir einige Beispiele nennen?

der Gradient f sollte auch als Spaltenvektor dargestellt werden - der duale Zeilenvektor ist durch das Differential gegeben d f
Warum wird der Gradient auf Wikipedia als kovarianter Vektor dargestellt? en.wikipedia.org/wiki/Covariance_and_contravariance_of_vectors Wie soll ich also meine Frage ändern, damit sie präziser ist?
@Christoph: f = d f .
@KarsusRen: ( f ) = f g = d f ; in der praxis schadet ein bisschen nachlässigkeit nicht viel (schließlich können wir den index durch kontraktion mit dem metrischen tensor immer beliebig erhöhen oder erniedrigen), aber manchmal kommt es darauf an, zB bei der herleitung des Koordinatenausdrucks für den laplace-operator (genauer gesagt der Laplace-Beltrami-Operator) in krummlinigen Koordinaten
Also ist der übliche Gradient einer Funktion in kartesischen Koordinaten ein kovarianter Vektor, der mit einem Zeilenvektor darstellbar ist oder nicht? Ich habe mich verlaufen ...

Antworten (4)

Ja, die Aussage gilt auch in der Allgemeinen Relativitätstheorie. Da wir es aber mit Tensoren höherer und insbesondere gemischter Ordnung zu tun haben, sind die Regeln der Matrizenmultiplikation (woher auch die Idee der Darstellung über Zeilen- und Spaltenvektoren stammt) nicht mehr mächtig genug:

Stattdessen bestimmt die Platzierung des Index, ob es sich um eine kontravariante (oberer Index) oder eine kovariante (unterer Index) Größe handelt.

Außerdem wird ein Index, der in einem Produkt sowohl in der oberen als auch in der unteren Position vorkommt, kontrahiert, und Gleichungen müssen für alle Werte freier Indizes gelten.

Wenn die gegebene Metrik nicht euklidisch ist (was bereits in der speziellen Relativitätstheorie zutrifft), ist die Zuordnung zwischen ko- und kontravarianten Größen komplizierter als eine einfache Transposition, und die tatsächlichen Werte der Komponenten in einer bestimmten Basis können sich ändern, z.

p μ = ( p 0 , + p ) p μ = ( p 0 , p )
und allgemein:
p μ = g μ v p v
wo g μ v bezeichnet den metrischen Tensor und eine Summe v = 1 n ist impliziert.

Ok, also können wir in der allgemeinen Relativitätstheorie mit der Indexnotation die üblichen Matrizen von der linearen Algebra auf (1,1)-Tensoren erweitern, während beispielsweise (0,2) (vollständig kovariante) Tensoren keine entsprechende Matrix in der üblichen linearen Algebra haben, richtig? Ich muss immer den metrischen Tensor verwenden, um Indizes zu erhöhen/zu senken und (1,1)-Tensoren zu erhalten, ist es richtig?
@linello: im Wesentlichen richtig; Das passiert auch, wenn Sie eine bilineare Karte darstellen EIN : ( u , v ) R als Matrix über u T EIN v
@Christoph die letzte Gleichung
p μ = g μ v p v
bedeutet, dass eine Zeilenmatrix gleich einer quadratischen Matrix mal einer Spaltenmatrix ist. dh 1by4-Matrix gleich 4by4 mal 4by1. Aber ein 4by4 mal ein 4by1 sollte ein 4by1 ergeben. Daher glaube ich, dass es nicht so einfach ist, einen kovarianten Vektor als Zeilenmatrix darzustellen.

Es ist im Allgemeinen sinnvoll, obwohl es eine Frage der Konvention ist, nicht der Wahrheit. Aber es führt niemals zu falschen Ergebnissen, wenn Sie diese Konvention treffen.

Dies wird ausführlich im Abschnitt „Wie hängen Matrizen und Tensoren zusammen?“ des Kapitels B8: Quantengravitation meiner Theoretischen Physik FAQ unter http://arnold-neumaier.at/physfaq/physics-faq.html diskutiert

Beachten Sie, dass man in der multivariaten Analyse im Allgemeinen den Gradienten als die Transponierte der (äußeren) Ableitung definiert, also sind „Gradient“ und „Ableitung“ leicht unterschiedliche Begriffe. Die Transponierung ist nur bei einer Metrik sinnvoll, da sie im Wesentlichen darin besteht, erhöhte/erniedrigte Indizes durch erniedrigte/erhöhte zu ersetzen.

Im Gegensatz zu einer kovarianten äußeren Ableitung ist ein Gradient also nicht mehr kovariant, sondern kontravariant (und daher ein Spaltenvektor).

Sie schlagen also vor, dass es immer wahr ist, kovariante Vektoren als Zeilenvektoren und kontravariante als Spaltenvektoren zu behandeln?
@linello: Es ist eine Frage der Konvention, nicht der Wahrheit. Aber es führt niemals zu falschen Ergebnissen, wenn Sie diese Konvention treffen. Ich habe meiner Antwort eine klarstellende Erklärung hinzugefügt.
@linello: Beachten Sie auch, dass diese Konvention zwar für Vektoren und Einsformen ziemlich gut funktionieren kann, Ihnen jedoch bei der Unterscheidung von kovarianten und kontravarianten Komponenten von Tensoren mit höherem Rang überhaupt nicht hilft. T a b ist eine 2x2-Matrix genauso wie T a b .
@JerrySchirmer: Nein. Nur T b a ist eine Matrix (lineare Selbstabbildung) im Raum von Spaltenvektoren und hat daher eine einfache Interpretation in der linearen Algebra. Andererseits benötigen 2-Formen und Bivektoren multilineare Algebra oder eine ausgezeichnete Metrik für ihre korrekte Interpretation als lineare Abbildungen.
@ArnoldNeumaier: Trotzdem schreiben die Leute die ganze Zeit 2-Formen als Matrizen. Nehmen Sie die Matrix-Schreibweise g a b , zum Beispiel. Ja, die Algebra funktioniert nicht, aber das ist irgendwie mein Punkt - das Zeilenvektor- / Spaltenvektor-Ding bricht sofort zusammen, sobald Sie zu Tensoren mit höherem Rang gehen.
@JerrySchirmer: Sobald Sie etwas in Koordinaten schreiben (und Sie benötigen Koordinaten, um einen metrischen Tensor als Matrix zu schreiben), haben Sie eine ausgezeichnete Metrik η in dem die Koordinaten orthogonal sind und die Matrizen durch Erhöhen/Senken von Indizes in Bezug auf diese Metrik erzeugt werden. - In dem zitierten FAQ-Artikel zeige ich auch, wie man metrische Tensoren usw. korrekt in einem linearen Algebra-Stil darstellt.
@ArnoldNeumaier: So habe ich das noch nie gemacht. Ich schreibe eine Matrix g a b und seine Umkehrung g a b , und verwenden Sie diese dann, um Indizes zu erhöhen und zu verringern. Ich bin mir sicher, dass Ihr Formalismus äquivalent ist. Ich denke nur, dass die Leute vorsichtig sein sollten, wenn sie an höherrangige Tensoren denken, als an die gleiche Art von Matrizen, die Sie in Algebra II sehen würden.

Da es mir aus meiner Erfahrung sehr schwer fiel, den "physikalischen" Unterschied zwischen Kontra- und Deckungsdingern zu verstehen, verstand ich sie wirklich erst, als ich Differentialgeometrie las und mich mit Einsformen beschäftigte, noch mehr, einige Autoren (wie Shuch) argumentieren, dass es falsch ist zu sagen, dass Covektoren wirklich Vektoren sind, sie sind verschiedene Objekte, sie sind eine Form!

TMS: Sie verwechseln Co und Contra - Co -Vektoren sind Eins-Formen; Einsformen sind natürlich Vektoren, sofern sie Elemente eines Vektorraums sind - sie sind nur keine Tangentenvektoren
Ja, tut mir leid, ich habe es verpasst, und natürlich überspannen sie einen Vektorraum, jedenfalls meinte Shuch, dass Einsformen Duale zu den üblichen Vektoren sind und sie nicht im selben Vektorraum mit ihnen sein können, daher schlägt er vor, sie zu unterscheiden , das ist alles.

Dies ist keine vollständige Antwort, sondern ein Versuch, ein Missverständnis über den Gradienten auszuräumen: Insbesondere macht es meiner Meinung nach nicht viel Sinn, zu sagen, dass der Gradient ein Covektor ist.

Es gibt zwei Möglichkeiten, das Konzept von Vektoren und Covektoren zu interpretieren:

Die erste besagt, dass es nur eine einzige Entität gibt – den Vektor – die kovariante und kontravariante Komponenten hat. Dies ist inspiriert von der klassischen Tensorrechnung: Bei Berechnungen ist uns die Platzierung der Indizes eines bestimmten Tensors oft egal - schließlich können wir sie immer senken oder erhöhen (dh von Spaltenvektoren zu Zeilenvektoren und umgekehrt wechseln). ) durch Kontraktion mit dem metrischen Tensor.

Aus dieser Sichtweise sind Differential und Gradient zwei Namen für dieselbe Entität. Es ist etwas irreführend zu sagen, dass der Gradient ein Covektor ist, da wir wirklich meinen, dass der Gradient ein Vektor ist, dessen kovariante Komponenten durch die partiellen Ableitungen gegeben sind (während seine kontravarianten Komponenten durch Kontraktion der kovarianten Komponenten mit der Inversen gegeben sind des metrischen Tensors).

Der zweite Standpunkt - den ich bevorzuge - ist, dass Vektoren (oder genauer gesagt, wie wir Differentialgeometrie machen, Tangentenvektoren) sich von Covektoren (auch bekannt als 1-Formen) unterscheiden. Das Skalarprodukt ergibt jedoch einen Isomorphismus zwischen Tangentenvektoren und 1-Formen. Der Gradient ist das (Vor-)Bild des Differentials unter diesem Isomorphismus und ein eigentlicher Vektor.

Ich stimme Ihrem ersten Standpunkt überhaupt nicht zu: Es gibt keinen einzigen Vektor mit sowohl kovarianten als auch kontravarianten Komponenten, außer im schlampigen Modus, in dem Konzepte nicht vollständig klar definiert sind und leicht Verwirrung aufkommen kann. - Ich stimme auch Ihrer Schlussfolgerung in diesem Fall nicht zu: In der koordinatenfreien Notation ist der einzige gut definierte Begriff des Gradienten der durch definierte Covektor f a = g a b d f a .
@ArnoldNeumaier: Ich bin auch mit meiner ersten Sichtweise nicht einverstanden, aber das ist die Intuition, die ich aus dem Besuch von Vorlesungen in theoretischer Physik bekommen habe - Größen mit oberen oder unteren Indizes wurden nicht diskriminiert, und insbesondere wurden alle Tensoren der Ordnung 1 als 4- bezeichnet. Vektoren; zum letzten Teil Ihres Kommentars: Dieser Ausdruck definiert einen Vektor, keinen Covektor