Sind senkrechte Komponenten in Vektoren etwas Besonderes?

Wir können einen Vektor (Geschwindigkeits-/Verschiebungsvektor) in zwei beliebige Richtungen teilen, solange die Resultierende der schrägen Komponenten des Vektors mit meinem ursprünglichen Vektor übereinstimmt. Wenn wir zwei Vektoren addieren müssen, können wir sie auf ähnliche Weise entlang zweier beliebiger Achsen teilen und Komponenten entlang dieser Achsen hinzufügen. Das Ergebnis wird in beiden Fällen dasselbe sein. Gibt es einen guten Grund, warum wir Vektoren in zueinander senkrechte Vektoren aufteilen? (abgesehen davon, dass es einfacher zu berechnen ist). Gibt es einen tieferen Grund dafür? Hinweis: - Ich betrachte der Einfachheit halber nur 2 Dimensionen.

Es gibt an sich keinen tieferen Grund, aber eine Menge von Vektoren zu zerlegen N Dimensionen hinein N Paarweise orthogonale Vektoren (auch bekannt als: eine Basis ) sind praktisch für die Vektormultiplikation. Bei der Durchführung des Punktprodukts oder (in drei Dimensionen) des Kreuzprodukts ist es am einfachsten, auf einer solchen orthogonalen Basis zu arbeiten. Für die Vektoraddition ist es nicht unbedingt bequemer.
Da die von @KyleArean-Raines identifizierte Frage diese Frage zu beantworten scheint, stimme ich für das Schließen. Leider glaube ich nicht, dass man als "Duplikat von anderer Seite" oder "Migrieren und als Duplikat schließen" abstimmen kann.

Antworten (1)

Ich gehe davon aus, dass Sie sich noch nicht mit linearer Algebra beschäftigt haben, entschuldigen Sie, wenn es so aussieht, als würde ich Sie an irgendeiner Stelle herablassen.

Sie haben Recht damit, dass wir einen Vektor in der Ebene in zwei Komponenten aufteilen können. Dies liegt daran, dass zwei beliebige linear unabhängige (nicht parallele oder antiparallele) Vektoren eine Basis bilden (ein Satz von Vektoren, aus denen Sie durch Addition und Skalarmultiplikation andere Vektoren "bauen" können). R 2 (und im Allgemeinen n Vektoren für R N ). Man kann in jedem dieser Koordinatensysteme "Physik machen", aber wie Sie sagten, sind die zueinander senkrechten (orthogonalen) viel einfacher zu berechnen. Ein großer Teil davon ist auf "Unabhängigkeit" zurückzuführen. In der Newtonschen Mechanik verwenden wir oft die Idee, dass Bewegung in x und y (und z, X 4 , X 5 , ) sind unabhängig von der Bewegung in den anderen (dh wir können die Newtonschen Gesetze auf jede Kraft separat anwenden).

Stellen Sie sich nun vor, wir hätten einen nicht-orthogonalen Basissatz von Vektoren, zum Beispiel die x-Achse und den Vektor gegen den Uhrzeigersinn bei 45 . Nimmt man einen beliebigen Punkt, so kann man ihn nicht entlang einer Achse verschieben, ohne ihn auch entlang der anderen zu verschieben. Die Bewegungsunabhängigkeit ist also weg, und wir würden im Allgemeinen mit einem viel komplizierteren System von Differentialgleichungen enden als im orthonormalen Fall.

Diese Idee kommt auch auf höherer Ebene zum Tragen, wenn man Fourier-Reihen studiert. Dies besteht darin, eine Funktion in Form von komplexen Exponentialen zu schreiben. Dies liegt daran, dass die komplexen Exponentiale eine orthogonale Basis für bilden L 2 , dem Raum absolut quadratisch integrierbarer Funktionen. Der Raum L 2 ist sehr wichtig, da eines der Axiome der Quantenmechanik ist, dass alle Wellenfunktionen zu ihr gehören (und außerdem Einheitsvektoren darin sind).

Tatsächlich lässt jeder Hilbert-Raum (ein Raum, in dem konvergente Folgen im Raum bleiben und der Raum ein "Skalarprodukt" hat) eine orthogonale Basis zu. Dies ist eine Folge von Zorns Lemma (eine äquivalente Aussage zum Auswahlaxiom). Fragen wie diese gehören zur Funktionsanalyse, dem unendlichdimensionalen Cousin der linearen Algebra.

BEARBEITEN: Dies ist eine Antwort auf den Kommentar, in dem darum gebeten wird, "Unabhängigkeit" näher zu erklären.

Nennen wir unseren ursprünglichen orthogonalen Referenzrahmen S und unsere neue Basis S ' . Die Koordinaten eines Punktes im Differenzkoordinatensystem ξ S , ξ S ' diese sind verwandt durch

ξ S ' = A ξ S A = ( A B C D )

Also wenn ξ S = ( X , j ) , ξ S ' = ( a , β ) dann hätten wir das

A X + B j = a C X + D j = β
Wenn wir uns also entlang bewegen a oder β Achse, dann im Allgemeinen sowohl die X Und j wird sich verändern. Im obigen Fall X = a , So C a + D j = β . Also, wenn wir entlang gehen β -Achse müssen wir auch die ändern a = X und das j Koordinate. Also kommen wir nicht weiter β ohne mitzufahren a .

"Wenn man einen beliebigen Punkt nimmt, kann man ihn nicht entlang einer Achse bewegen, ohne ihn auch entlang der anderen zu bewegen." .. Aber in diesem Fall messen wir Abstände parallel zu nicht senkrechten Achsen, sodass wir uns immer noch entlang einer Achse bewegen können, ohne uns zu bewegen zusammen mit anderen, also ist die Unabhängigkeit immer noch da. Was denkst du?. (Danke für zusätzliche Informationen).
@Robin Die Messung der Entfernung selbst ist dieselbe (bis zu einer Wahl des Ursprungs). Der Unterschied besteht darin, wie wir uns auf den Punkt „beziehen“, und in diesem Fall, wie sich der „Zeiger“ innerhalb verschiedener Koordinatensysteme ändert, wenn wir den Punkt ändern. Also mit dem Beispiel im Beitrag, wenn wir unseren neuen Basisvektor in unsere alte (xy) Basis aufteilen, dann, wenn wir uns entlang des neuen Basisvektors bewegen, könnten wir ebenfalls nicht anders, als ein kleines "zusätzliches" x darin zu bekommen, wir könnten uns nicht entlang x bewegen, ohne auch entlang der neuen Basis zu gehen. Hoffe, das ist klar, ich werde später eine mathematischere (und klarere) Antwort posten.