Ich habe ziemlich gute Kenntnisse in Physik, konnte aber nicht genau verstehen, was ein Tensor ist und warum er so grundlegend ist.
Ein (Kontravariante Rang 2) Tensor ist ein Vektor von Vektoren. Wenn Sie einen Vektor haben, sind es 3 Zahlen, die in eine bestimmte Richtung zeigen. Das bedeutet, dass sie sich bei einer Koordinatendrehung ineinander drehen. Damit die 3 Vektorkomponenten verwandeln in
unter einer linearen Koordinatentransformation.
Ein Tensor ist ein Vektor aus 3 Vektoren, die unter Rotation ineinander rotieren (und auch als Vektoren rotieren – die Reihenfolge der beiden Rotationsoperationen ist irrelevant). Wenn ein Vektor ist wo ich von 1-3 (oder 1-4, oder von was auch immer zu was auch immer) läuft, ist der Tensor , wobei der erste Index den Vektor bezeichnet und der zweite Index die Vektorkomponente (oder umgekehrt). Wenn Sie die Koordinaten drehen, transformiert sich T als
Wobei ich die Einstein-Summierungskonvention verwende, dass ein wiederholter Index summiert wird, sodass der mittlere Ausdruck wirklich die Summe ganz rechts bedeutet.
Ein Tensor des Ranges 3 ist ein Vektor von Tensoren des Ranges 2, ein Tensor des Ranges 4 ist ein Vektor von Tensoren des Ranges 3, also ein beliebiger Rang. Die Notation ist und so weiter mit so vielen oberen Indizes, wie Sie einen Rang haben. Das Transformationsgesetz ist ein A für jeden Index, was bedeutet, dass jeder Index separat als Vektor transformiert wird.
Ein kovarianter Vektor oder Kovektor ist eine lineare Funktion von Vektoren zu Zahlen. Dies wird vollständig durch die Koeffizienten beschrieben, , und die lineare Funktion ist
wobei die Einstein-Konvention im ersten Ausdruck verwendet wird, was einfach bedeutet, dass Sie verstehen, dass Sie über den Index summieren sollen, wenn derselbe Indexname zweimal vorkommt, einmal niedriger und einmal höher, und Sie sagen, dass der Index zusammengezogen ist. Die allgemeinste lineare Funktion ist eine lineare Kombination der drei Komponenten mit einigen Koeffizienten, also ist dies der allgemeine Covektor.
Das Transformationsgesetz für einen Covektor muss durch die inverse Matrix sein
Die Matrixmultiplikation ist in der Einstein-Konvention einfach:
Und die Definition von (die inverse Matrix) macht daraus das Skalarprodukt bleibt unter einer Koordinatentransformation gleich (Sie sollten dies überprüfen).
Ein kovarianter Tensor mit Rang 2 ist ein Covektor von Covektoren und so weiter mit beliebig hohem Rang.
Sie können auch einen Rang-m,n-Tensor erstellen , mit m oberen und n unteren Indizes. Jeder Index wird separat als Vektor oder Covektor transformiert, je nachdem, ob er oben oder unten ist. Jeder untere Index kann mit jedem oberen Index in einem Tensorprodukt kontrahiert werden, da dies eine invariante Operation ist. Dies bedeutet, dass die Rang-m,n-Tensoren auf viele Arten betrachtet werden können:
Und so weiter für eine Reihe von Interpretationen, die exponentiell mit dem Rang wächst. Dies ist die bevorzugte Definition des Mathematikers, die nicht die Transformationseigenschaften betont, sondern die beteiligten linearen Abbildungen. Die beiden Definitionen sind identisch, aber ich bin froh, dass ich zuerst die Physikerdefinition gelernt habe.
Im gewöhnlichen euklidischen Raum in rechteckigen Koordinaten müssen Sie nicht zwischen Vektoren und Covektoren unterscheiden, da Rotationsmatrizen eine Umkehrung haben, die ihre Transponierte ist, was bedeutet, dass Covektoren und Vektoren dasselbe unter Rotationen transformieren. Das bedeutet, dass Sie nur Aufwärts-Indizes oder nur Abwärts-Indizes haben können, es spielt keine Rolle. Sie können einen oberen Index durch einen unteren Index ersetzen, wobei die Komponenten unverändert bleiben.
In einer allgemeineren Situation wird die Abbildung zwischen Vektoren und Covektoren als metrischer Tensor bezeichnet . Dieser Tensor nimmt einen Vektor V und erzeugt einen Covektor (traditionell mit demselben Namen, aber mit einem niedrigeren Index geschrieben).
Und dies ermöglicht es Ihnen, einen Begriff der Länge zu definieren
Dies ist auch ein Begriff des Skalarprodukts, der wie folgt aus dem Begriff der Länge extrahiert werden kann:
Im euklidischen Raum der metrische Tensor das ist das Kronecker-Delta. Es ist wie die Identitätsmatrix, außer dass es ein Tensor ist, keine Matrix (eine Matrix nimmt Vektoren zu Vektoren, also hat sie einen oberen und einen unteren Index – beachten Sie, dass dies bedeutet, dass sie automatisch Kovektoren zu Kovektoren macht, dies ist eine Multiplikation von Kovektor durch die transponierte Matrix in Matrixnotation, aber die Einstein-Notation subsumiert und erweitert die Matrixnotation, daher ist es am besten, sich alle Matrixoperationen als Abkürzung für einige Indexkontraktionen vorzustellen).
Die Tensorrechnung ist wichtig, weil viele Größen von Natur aus Vektoren von Vektoren sind.
Im Allgemeinen sind Tensoren das grundlegende Werkzeug für Gruppendarstellungen, und Sie brauchen sie für alle Aspekte der Physik, da Symmetrie so zentral für die Physik ist.
Es gibt bereits viele Antworten, ich hoffe, ich kann es noch klarer machen.
Tensoren sind die Verallgemeinerung der linearen Transformationen.
Tensor ist etwas, das dauert Vektoren und Marken Vektoren daraus.
Das ist die Ordnung (oder der Rang) des Tensors.
Ihr Typ wird mit bezeichnet (n: Ausgangsvektoren, m: Eingangsvektoren)
Wenn ein Tensor 0 Vektoren nimmt, bedeutet das, dass er etwas aus einem Skalar berechnet (oder eine Konstante ist), wenn ein Tensor 0 Vektoren erzeugt, erzeugt er einen Skalar.
Einige Beispiele für Tensoren nach Typ:
Tensoren können mit an beschrieben werden dimensionales Array von Zahlen. Auf die Elemente des Tensors kann also mit zugegriffen werden Indizes.
Beispielsweise ist die lineare Transformation ein Tensor 2. Ordnung.
Auf die Elemente des mehrdimensionalen Tensors kann per Index zugegriffen werden, eine Matrix hat offensichtlich 2 Indizes.
Nun etwas zur Notation. Tensorelemente haben normalerweise mehrere Indizes, einige obere und einige untere. Untere Indizes stehen für die Eingabevektoren, obere Indizes für die Ausgabevektoren. Achtung: obere Indizes haben nichts mit Exponenten zu tun!
Ein linearer Transformationstensor würde also so aussehen: .
Sie führen eine lineare Transformation (auch bekannt als Berechnung der Elemente des resultierenden Vektors) wie folgt durch:
Nehmen Sie also an, Sie befinden sich in 3D und multiplizieren eine 3×3-Matrix mit einem Spaltenvektor. In diesem Fall steht der obere Index für die Zeilen und der untere für die Spalten der Matrix. und läuft von 1 bis zu der Dimension, in der Sie sich befinden (normalerweise 3).
Sie können diese linearen Transformationen wie folgt verketten:
Einstein bemerkte, dass in diesen Summationsformeln der Index unter dem Summationszeichen genau zweimal vorkommt. Es kann also entfernt werden. Die beiden vorherigen Ausdrücke sehen also folgendermaßen aus:
Das ist sehr analog zu den Matrixformeln, die Sie in der linearen Algebra verwenden. Der obere Index tötet den unteren Index während der Berechnung, während die einsamen Indizes intakt bleiben.
So können Sie die beiden Matrizen wie folgt als Tensoren multiplizieren:
Und schließlich würde ein Kreuzprodukt mit Tensoren so aussehen:
Das ist ein 3 × 3 × 3-Array von Zahlen, multipliziert mit einem Vektor, ergibt eine gewöhnliche Matrix, die multipliziert mit einem anderen Vektor den endgültigen Vektor ergibt.
Ein Skalarprodukt in der Sprache der Tensoren würde so aussehen:
Wo ist eine Identitätsmatrix.
Nun sollte der Wiki-Artikel zu Tensoren verständlicher sein.
Hoffe, das wird jemandem einen Aha-Moment bereiten.
Im Kontext der Physik ist die aufschlussreichste Beschreibung, die ich gefunden habe, dass ein Tensor eine verallgemeinerte Größe ist, deren algebraische/analytische Eigenschaften nicht vom verwendeten Koordinatensystem abhängen*
Nun, die traditionelle Art, eine verallgemeinerte Größe darzustellen, ist als lineare Kombination von Basisvektoren oder als Skalar. Impuls kann beispielsweise dargestellt werden durch . Ändert man die Koordinaten, etwa durch eine passive Drehung, der Komponente könnte sich ändern, und natürlich werden sich die Basisvektoren ändern, aber das Momentum nicht, gerade weil sich sowohl die Basisvektoren als auch die Komponenten ändern. Sie können sich vorstellen, wie wichtig es ist, dass eine physikalische Größe diese Eigenschaft hat. Somit dienen Tensoren als natürliche mathematische Objekte, mit denen man theoretische Physik betreiben kann.
Sie sind wirklich nur eine mathematische Formalisierung fast aller physikalischen Größen, die Sie inzwischen studiert haben sollten . Die Nützlichkeit dieser Formalisierung tritt in den Vordergrund, wenn Sie beginnen, Dinge wie die Relativitätstheorie zu studieren, bei der es um die Tatsache geht, dass physikalische Gesetze unabhängig von einer sehr allgemeinen Klasse linearer Koordinatentransformationen sind.
Dieses Verhalten wird vielleicht am besten durch einen (den?) Fundamentalsatz von Tensoren erfasst, in dem jeder Tensor, dessen Komponenten alle sind in einem Koordinatensystem hat seine Komponenten als bei allen anderen auch.
Dies impliziert, dass, wenn eine Gleichung mit Tensoren in einem Koordinatensystem wahr ist, sie in allen anderen wahr ist.
Dieser Satz folgt, soweit ich das beurteilen kann, aus einem der vielen axiomatischen Grundgerüste zur Definition von Tensoren. Einige Frameworks beginnen mit der Einführung von Tensoren als multilineare Karten. Viele beginnen damit, kovariante/kontravariante Tensoren als mehrfach indizierte Sätze von Komponenten zu definieren, die bestimmten Transformationsregeln folgen.
Das Endergebnis ist jedoch dasselbe. Sie erhalten etwas, das durch eine Reihe von Komponenten dargestellt werden kann und dessen algebraische/analytische Eigenschaften sich nicht ändern, egal welches Koordinatensystem Sie verwenden.
Es ist wichtig zu beachten, dass Tensoren nicht einfach Ansammlungen von Komponenten sind. Tatsächlich sind einige Behandlungen von Tensoren völlig komponentenfrei. Zum Beispiel stellt die geometrische Algebra Tensoroperationen (denken Sie an verallgemeinerte geometrische) Operationen in Bezug auf etwas dar, das als geometrisches Produkt bezeichnet wird. Und doch sind die untersuchten Dinge immer noch Tensoren, gerade weil ihre Eigenschaften nicht davon abhängen, "wie man sie betrachtet".
*Mit Koordinatensystem meine ich ein "typisches" System, das durch invertierbare lineare Transformationen erreicht werden kann.
Es gibt mehrere äquivalente Möglichkeiten, Tensoren zu definieren und zu verstehen, und es lohnt sich, all die verschiedenen Perspektiven und die Beziehungen zwischen ihnen zu verstehen. Die Perspektive, die ich am intuitivsten und am besten motiviert finde, ist die Perspektive von Tensoren als multilineare Funktionen .
Ein Tensor ist eine multilineare Funktion, die eine Sammlung von Vektoren als Eingabe nimmt und einen Skalar ausgibt. Mit multilinear ist gemeint, dass die Funktion in jeder Eingabe unabhängig linear ist .
Man kann sich multilineare Funktionen als lokale Annäherungen an nichtlineare Funktionen vorstellen, die von mehreren Variablen abhängen, wobei die Annäherung strukturell berücksichtigt, dass es mehrere Eingaben aus mehreren Räumen gibt. Genauso wie wenn Sie eine nichtlineare Funktion eines Vektors vergrößern, sieht sie ungefähr linear aus, wenn Sie eine Funktion vieler Vektoren vergrößern, sieht sie ungefähr multilinear aus.
Wenn Sammlungen von Basisvektoren gewählt werden, die jeden Eingangsvektorraum überspannen, dann ist eine multilineare Funktion vollständig durch ihre Wirkung auf alle möglichen Kombinationen von Basisvektoren definiert. Die Ergebnisse der Anwendung der multilinearen Funktion auf alle Kombinationen von Basisvektoren können in einem mehrdimensionalen Array von Zahlen angeordnet werden, und dieses Array kann als Darstellung der multilinearen Funktion in Bezug auf die gegebenen Basen betrachtet werden.
Wenn man die Basen ändert, ändern sich offensichtlich die Einträge in der mehrdimensionalen Array-Darstellung, aber auf vorhersagbare Weise. Die genaue Art und Weise, wie sich die Einträge des Arrays ändern, wenn Sie die Basen ändern, werden als "Transformationsregeln" bezeichnet. In vielen Physikklassen werden Zahlenkästchen, die diesen Transformationsregeln gehorchen, als Definition eines Tensors präsentiert, was eine völlig legitime Definition ist, aber verstörend und unmotiviert sein kann, wenn der multilineare Kontext, aus dem diese Regeln stammen, nicht erklärt wird.
Das Festhalten einiger Eingaben für eine multilineare Funktion (in der Terminologie der Programmiersprache das "Überschließen" dieser Eingaben) ergibt eine multilineare Funktion in den verbleibenden Eingaben. Die Array-Darstellung der induzierten multilinearen Funktion in den verbleibenden Eingaben kann berechnet werden, indem eine bestimmte Summe unter Einbeziehung des ursprünglichen Arrays und der Koordinatenvektoren für die festen Eingabevektoren durchgeführt wird. Dieser Prozess der Bildung einer neuen multilinearen Funktion durch Festhalten bestimmter Eingaben wird als Tensorkontraktion bezeichnet.
Da das Fixieren aller Eingaben bis auf eine auf einen Tensor eine lineare Funktion in der verbleibenden Eingabe ergibt und da lineare Funktionen in einem Vektorraum mit Elementen im Dual zu diesem Vektorraum identifiziert werden können, kann ein Tensor gleichermaßen als multilineare Funktion angesehen werden das nimmt einen weniger als die ursprüngliche Anzahl von Vektoren als Eingabe und erzeugt einen (Dual-)Vektor als Ausgabe. Diese Ausgabe kann dann als eine der Eingaben für einen anderen Tensor verwendet werden, der einen Eingabepunkt für einen Vektor im ausgegebenen dualen Raum hat. Allgemeiner können komplizierte Netzwerke konstruiert werden, bei denen verschiedene Eingaben in einen Tensor als Ausgaben neu interpretiert werden und diese Ausgaben dann als Eingaben in andere Tensoren im Netzwerk verwendet werden (siehe grafische Notation von Penrose ).
Wenn man jedem Punkt auf einer Fläche (oder Mannigfaltigkeit) einen anderen Tensor anhängt, ist die Sammlung all dieser Tensoren ein Tensorfeld (genau wie wenn man allen Punkten auf einer Mannigfaltigkeit Vektoren anhängt, erhält man ein Vektorfeld). Ein häufiger Spezialfall ist, wenn die Eingabevektorräume, die die Domäne des Tensors an einem Punkt bilden, Kopien des Tangentenraums und des Kotangensraums sinddes Verteilers an diesem Punkt. In diesem Fall können geeignete zu verwendende Basen aus den Tangenten- (oder Co-Tangens-) Vektoren an jedem Punkt gebildet werden, der einigen vorher existierenden Koordinatendiagrammen für die Mannigfaltigkeit zugeordnet ist. Wenn man die Parametrisierung der Mannigfaltigkeit ändert, ändern sich die Koordinatendiagramme, sodass sich die Basen für das Tensorfeld an jedem Punkt ändern, sodass sich die Array-Darstellungen der Tensoren an jedem Punkt ändern (aber auf vorhersehbare Weise ...).
Da Tensorfelder in der Physik viel häufiger vorkommen als einzelne Tensoren, wird häufig der Begriff "Tensor" verwendet, um ein Tensorfeld zu bezeichnen. Diese Terminologie funktioniert, weil die meisten Begriffe für Operationen an Tensoren auch für Tensorfelder verwendet werden können, mit dem Verständnis, dass die Operation gleichzeitig für alle Tensoren im Feld punktweise durchgeführt wird.
Hoffe, das hilft bei der Intuition. Diese Perspektive wurde langsam durch jahrelangen Kampf geschmiedet, um selbst Tensoren von Grund auf zu verstehen; Von völliger Verwirrung am Anfang bis hin zu natürlichen und klaren Tensoren. Dieser Beitrag ist das, was ich mir wünschte, jemand hätte es mir am Anfang gesagt.
"A tensor is a multilinear function that takes as input a collection of vectors, and outputs a scalar."
<- Dies scheint einer anderen hochgewählten Antwort hier zu widersprechen, in der es heißt:"Tensor is something that takes 𝑚 vectors and makes 𝑛 vectors from it."
Tensoren sind Objekte mit meist mehreren Indizes, eine Verallgemeinerung von Vektoren und Matrizen, mit bestimmten Transformationseigenschaften bei Basiswechsel. Sie werden in verschiedenen Traditionen unterschiedlich eingeführt, mit unterschiedlichen Notationen.
Möglicherweise finden Sie den Eintrag „Wie hängen Matrizen und Tensoren zusammen?“ aus Kapitel B8 meiner FAQ zur Theoretischen Physik , um einige der damit verbundenen Probleme zu entwirren.
Das sagt A.Zee über einen Tensor aus seinem Buch Einstein Gravity in a Nutshell (Hardcover)
Ein Tensor ist etwas, das sich wie ein Tensor transformiert
Vor langer Zeit kam ein Student, der später ein angesehener Physiker der kondensierten Materie wurde, nach einem Kurs über Gruppentheorie zu mir und fragte mich: "Was genau ist ein Tensor?" Ich sagte ihm, dass ein Tensor etwas ist, das sich wie ein Tensor transformiert . Als ich ihn viele Jahre später wiedertraf, unterhielt er mich mit der folgenden Geschichte. Bei seinem Abschluss fragte ihn sein Vater, vielleicht noch schmerzerfüllt von der hohen Summe, die er an die angesehene Privatuniversität gezahlt hatte, die sein Sohn besuchte, was das denkwürdigste Wissen sei, das er sich während seiner vier Jahre am College angeeignet habe. Er antwortete: "Ein Tensor ist etwas, das sich wie ein Tensor transformiert."
(Diese Antwort wurde ursprünglich für eine neuere Frage gepostet, die am 26. Oktober 2018 gestellt und später als doppelte Frage markiert wurde. Diese neuere Frage bezog sich speziell auf den Kontext der Rotationsdynamik. Ich habe meine Antwort hierher verschoben, damit andere Besucher nachsehen können für eine Antwort, die für diesen Kontext spezifisch ist.)
Im Kontext der Rotationsdynamik ein Vektor ist etwas, dessen Komponenten transformieren unter Rotationen wie
Ein einfaches Beispiel für einen Tensor mit Indizes ist , wo sind Vektoren. Dieser wandelt sich unter Drehungen übrigens automatisch richtig um verwandeln.
Tensoren haben oft spezielle Symmetrien. Zum Beispiel der Trägheitstensor ist symmetrisch: .
Solche Symmetrien wirken sich nicht auf die allgemeine Regel aus, wie sich der Tensor bei Drehungen transformiert, aber sie können zu interessanten Übereinstimmungen führen. Zum Beispiel die entsprechende Verallgemeinerung des Drehimpulses zu -dimensionaler Raum wird durch eine Antisymmetrie dargestellt -Indextensor, . Aufgrund der Antisymmetrie hat dies unabhängige Komponenten, nämlich solche mit . (Diese mit werden durch Antisymmetrie bestimmt, und diejenigen mit sind durch Antisymmetrie Null.) Im physikalisch relevanten Fall , zufällig hat Komponenten, wie ein Vektor. Noch interessanter (und weniger trivial) stellt sich heraus, dass sich diese drei Komponenten wie die drei Komponenten eines Vektors unter Rotationen transformieren, obwohl die allgemeine Regel zum Transformieren eines Tensors mit zwei Indizes zwei Rotationsmatrizen anstelle von nur einer beinhaltet! Aus diesem Grund stellen die meisten Formulierungen der Rotationsdynamik Dinge wie Drehimpuls, Winkelgeschwindigkeit und Drehmoment so dar, als wären sie Vektoren, obwohl sie besser als antisymmetrische Tensoren mit zwei Indizes dargestellt würden.
Eigentlich sogar drin , gibt es ein klares Symptom dafür, dass Größen wie die Winkelgeschwindigkeit (usw.) nicht wirklich Vektoren sind: Sie transformieren sich wie Vektoren, wenn ist eine gewöhnliche Rotation, aber nicht wann ist eine Spiegelung . Begriffe wie "axialer Vektor" oder "Pseudovektor" beziehen sich auf diese Situation. Die Richtung der Winkelgeschwindigkeit kann nicht durch eine Spiegelung umgekehrt werden (weil ein Zwei-Index-Tensor mit zwei Faktoren transformiert , also heben sich die Minuszeichen auf), aber die Richtung eines legitimen Vektors (Ein-Index-Tensor) kann durch eine Spiegelung umgekehrt werden.
Ein subtileres Symptom dafür, dass der Drehimpuls als antisymmetrischer Tensor mit zwei Indizes dargestellt werden sollte (anstelle eines Vektors = Tensor mit einem Index), ist die Art und Weise, wie er konstruiert ist. Zum Beispiel ein Objekt mit Impuls (ein Vektor) am Ende eines masselosen rotierenden Längenstabes (ein Vektor) wird normalerweise geschrieben als , oder so ähnlich (das Vorzeichen ist Konventionssache). Das Kreuzprodukt macht nur im dreidimensionalen Raum Sinn. Es sollte wirklich geschrieben werden stattdessen. Im dreidimensionalen Raum hat dies dieselbe Liste unabhängiger Komponenten wie das Kreuzprodukt, aber die Tensordarstellung mit zwei Indizes ist in einer beliebigen Anzahl von Dimensionen sinnvoll.
In anderen Kontexten, wie der Relativitätstheorie, ist die Definition analog, aber mit der Gruppe der Lorentz-Transformationen (in der speziellen Relativitätstheorie) oder allen Koordinatentransformationen (in der allgemeinen Relativitätstheorie) anstelle der Gruppe der Rotationen.
Ich denke, Gruppendarstellungen sind die natürlichste Art, Tensoren zu verstehen. Die folgenden Teile können im Wesentlichen unabhängig voneinander gelesen werden. Der 2. ist der relevanteste.
Ich denke, die Hauptquelle der Verwirrung ist das -Tensoren enthalten immer, immer, immer eine Struktur, die die physikalische Literatur nicht allzu sehr explizit machen möchte. Es ist das Transformationsgesetz, das ich mit Struktur meine, unter den Transformationen, wie sie impliziert sind (das könnte sein ).
Die berüchtigte Frage „Ist meine Matrix hier ein Rang 2 -tensor?" kann nur mit "naja, es kommt darauf an" beantwortet werden. Denn wie sollen wir testen, ob sich Ihre Matrix wie ein Tensor transformiert, wenn Sie uns nicht sagen, wie sich Ihre Matrix transformiert .
Irgendein Element eines Vektorraums (beachten Sie, dass jede -Tensor lebt in einem Vektorraum: Addieren -Tensoren macht ein -tensor und multiplizieren mit auch) kann nur dann als Tensor bestätigt werden, wenn Sie die folgenden Daten angeben:
Repariere eine Gruppe (das könnte sein in direkter Entsprechung zum ersten Absatz). Denken Sie daran, dass ein -dim. Repräsentation von ist durch def. ein Gruppenhomomorphismus ( sind alle invertierbare Matrizen)
Beachten Sie, dass Sie viele solcher finden können (für eine und ein ), So, welche bedeutet ein Physiker? Dies ist in einigen Nomenklaturen und Notationen versteckt, darunter: der Rang, ob der Index oben oder unten ist, wobei Spinor anstelle von Tensor gesagt wird. Beispiele :
Fazit: Wann immer das T-Wort fällt, wissen Sie bitte, dass dies im Wesentlichen zwei Dinge beinhalten muss: eine Gruppe und ein Vertreter. davon .
Lassen Sie mich nun die Frage von OP beantworten,
Was ist ein Tensor?
Ein Tensor ist alles, was in einer Repräsentation einer Gruppe liegt.
In der Sprache der realen Physik wird man kaum jemals das genaue Transformationsverhalten, dh rep., angeben, unter dem sich eine physikalische Größe transformiert. Aber es wird sehr oft verstanden. Lassen Sie uns dies in der speziellen Relativitätstheorie veranschaulichen:
Wir beginnen mit dem Rang 1 4-Tensor, . Wir wissen durch Notation, dass es ist, was es ist, nämlich , also leiten wir sein Transformationsverhalten unter einem Boost ab , nämlich . Die kovariante Version wie . Jetzt wäre eine Standardfrage "Wie funktioniert (Indizes summiert 0,..3 ohne Vorzeichen) transformiere unter ?". Und ab dem ersten Teil meiner Antwort könnten Sie geneigt sein zu sagen: " Sie müssen mir sagen, wie es sich verwandelt, täuschen Sie mich nicht!".
Aber Physiker meinen etwas ganz Natürliches, wenn sie zusammengesetzte Tensoren schreiben: Das bekannte Transformationsgesetz der Stücke überträgt sich. Jedes Objekt, das Sie schreiben, muss ein bestimmtes Trafogesetz haben, um das Trafo des Composites natürlich so zu definieren , dass jede Komponente separat transformiert wird . Die Antwort auf die Frage wäre daher
Ich werde schlampig über den Unterschied zwischen Tensorfeldern und Tensoren sprechen. Lassen Sie mich auch dies kurz halten und nur erläutern, wo in einem Rang Tensor wie definiert durch
Daher liegt zwar jeder Tensor im Sinne der Differentialgeometrie in irgendeiner Darstellung irgendeiner Gruppe (der Gruppe der Koordinatentransformationen mit der fundamentalen und dualen Darstellung), aber ich bin mir ehrlich gesagt nicht sicher, ob auch die Umkehrung gilt. ZB der Spinor rep. ist sicherlich nicht realisierbar, wenn wird als unsere Raumzeit genommen, aber Sie könnten andere finden (wie das Spinbündel) einen Spinor als tangentialen (Co)Vektor zu realisieren, aber das verlässt mein Fachgebiet.
Vielen Dank für das Lesen dieser monströsen Antwort! :)
Ein Tensor ist eine Verallgemeinerung des Begriffs von Skalaren und Vektoren. Ein Tensor vom Rang 0 ist ein Skalar (er hat kompensiert), während ein Tensor vom Rang 1 ein Vektor ist (der hat Komponenten). Allgemein ein Rangtensor hat Komponenten.
Siehe http://www.grc.nasa.gov/WWW/k-12/Numbers/Math/documents/Tensors_TM2002211716.pdf für eine nette Einführung.
Meine sehr einfache Antwort ist wirklich nur eine von vielen Situationen, in denen ein Tensor praktisch ist, um die Kräfte auf einen Körper zu beschreiben ... sie werden jedoch fast überall in der Physik verwendet ... dies ist nur ein EINFACHES Beispiel.
Ein kubischer Körper bewegt sich durch Luft und spürt den Bewegungswiderstand orthogonal zu seiner Flugbahn. Diese Normalkraft könnte auf jeder Seite des Würfels auftreten. ODER, wenn der Würfel still sitzt, erfährt er Druck von der Atmosphäre, der Druck kann auf jeder Seite in Normalkräfte zerlegt werden.
Jetzt gibt es die Scherkraft der viskosen Luft, die an der Oberseite des Würfels haftet, und der Widerstand verformt die Oberseite des Würfels. Diese Scherkraft wirkt an den Seiten parallel zur Bewegung des sich bewegenden Würfels. Dies kann FÜR JEDE parallele Fläche auftreten.
Tensoren sind praktisch, wenn ALLE Möglichkeiten tatsächlich möglich sind und auftreten. Dann gibt es Tricks, um die Kräfte zu summieren. Darum geht es bei all der ausgefallenen Tenor-Mathematik oben.
Mir wurde von einem großen Professor für Strömungsmechanik gesagt, dass Tensoren nur verwendet werden sollten, wenn wir die Kräfte und/oder das System gut verstehen. Wenn wir etwas Neues lernen, beginnen wir normalerweise mit jeder Dimension separat und arbeiten mühsam die ganze Mathematik aus .... wenn wir dann wissen, was los ist, können Tensoren verwendet werden.
Tensor ist ein mehrdimensionaler Vektor in der Umgangssprache.
Wo die Variationen in eine Richtung die andere beeinflussen.
In der Newtonschen Mechanik nehmen wir alle Kräfte, Geschwindigkeiten usw. an, die zueinander orthogonal sind voneinander unabhängig.
seit Immer wenn wir etwas Kraft anwenden, lösen wir in Komponenten auf und berechnen das Netzwerk als Null, wenn die Komponenten entlang einer bestimmten Richtung Null beitragen.
Das heißt, eine Kraft, die in eine Richtung ausgeübt wird, hat keine Wirkung in einer Richtung senkrecht dazu.
Während einige physikalische Größen wie Druck, der in eine Richtung ausgeübt wird, auch in andere Richtungen wirken können. Die entsprechende Richtungsgröße ist der Spannungstensor.
Wenn wir einen Ballon in eine Richtung drücken, können wir eine Ausdehnung in andere Richtungen sehen, die ebenfalls senkrecht zueinander stehen.
Wenn wir einen massiven Würfel an eine Wand schieben, bewegt er sich nicht nach oben, während ein Luftballon nach oben steigt. Dies ist eine einfache Analogie, die einen Vektor und einen Tensor unterscheiden könnte.
Jede Variation der x-Komponente des Spannungstensors wirkt sich auch in yz-Richtungen aus.
Ähnlich verhält es sich mit dem Trägheitsmoment.
Hier noch behandeln wir die Wirkungen der Ursache auf andere Richtungen unabhängig.
Mit anderen Worten behandeln wir die Effekte in y-, z-Richtungen unabhängig voneinander.
Daher sind Spannung und Trägheitsmoment Tensoren vom Rang 2.
Dh wir konnten zu einem Zeitpunkt nur 2 räumliche Dimensionen verbinden.
Levi-Civita ist ein Tensor auf Rang 3, den wir im Drehimpuls verwenden
Hier entscheidet die Reihenfolge aller drei i, j, k über den Wert/das Vorzeichen der Funktion .
In der Elektrodynamik und der relativistischen Mechanik können wir auch auf Rang-4-Tensoren stoßen.
Alte Frage, die einige neue Erkenntnisse bietet. Die folgende Beschreibung präsentiert einen Aspekt von Tensoren, der helfen kann, sie intuitiv zu verstehen. Für eine formale Definition und andere Erklärungen schauen Sie sich bitte andere Antworten an.
Tensoren in Physik und Mathematik haben zwei unterschiedliche, aber verwandte Interpretationen - als physikalische Einheiten und als Transformationsabbildung.
Aus der Sicht einer physikalischen Entität kann ein Tensor als etwas interpretiert werden, das verschiedene Komponenten derselben Entität zusammenbringt, ohne sie in einem skalaren oder vektoriellen Additionssinn zusammenzufügen . Z.B
oben ist ein Beispiel für einen Tensor. Auch wenn wir vielleicht nicht sehen können als einzelnes wahrnehmbares Ding kann es verwendet werden, um perfekt verständliche Entitäten zu holen oder zu verstehen, zB für einen bestimmten Bereich , können wir die Gesamtzahl der Pixel, die senkrecht dazu Licht emittieren, durch die Gleichung erhalten:
Ändern Sie die monochromatischen Pixel in diesem Beispiel in RGB-Pixel, und wir erhalten etwas, das dem Spannungstensor (einem Tensor des Ranges 2) sehr ähnlich ist, und wir können den Traktionsvektor (Kraft pro Flächeneinheit für eine gegebene Flächeneinheit n) durch erhalten Gleichung:
Obwohl es schwierig ist, sich den Spannungstensor in seiner Gesamtheit vorzustellen, sagt uns jede seiner Komponenten etwas sehr Eigenes , z sagt uns, wie viel Kraft in x-Richtung von einer Einheitsfläche erfahren wird, die senkrecht zur x-Richtung steht (an einem bestimmten Punkt in einem Festkörper). Der vollständige Spannungstensor, , gibt uns die Gesamtkraft an, die eine Oberfläche mit Einheitsfläche, die in eine beliebige Richtung zeigt, erfährt. Sobald wir die Richtung festgelegt haben, erhalten wir den Traktionsvektor aus dem Spannungstensor , oder, ich meine das nicht wörtlich, der Spannungstensor kollabiert auf den Traktionsvektor.
Beachten Sie, dass die Möglichkeit, Tensoren als eine einzelne physikalische Einheit oder etwas, das visuell Sinn macht, zu interpretieren, nicht null ist. Vektoren sind zB Tensoren und wir können die meisten von ihnen visualisieren (zB Geschwindigkeit, elektromagnetisches Feld).
Ich musste es hier knapp halten, aber weitere Erklärungen zu ähnlichen Themen finden Sie hier .
QMechaniker