Ich interessiere mich für die orthogonale Ähnlichkeitstransformation von Diagonalmatrizen, siehe auch meine vorherigen Fragen Eigenschaften der orthogonalen Ähnlichkeitstransformation und orthogonale Ähnlichkeitstransformation einer Diagonalmatrix durch eine Permutationsmatrix: Rückwärtsrichtung . Annehmen, dass ist eine Diagonalmatrix mit positiven und paarweise verschiedenen Elementen Und eine orthogonale Matrix. Wenn die orthogonale Ähnlichkeitstransformation eine Diagonalmatrix ist, haben wir Ausdrücke
Meine Vermutung ist, dass Einheitsvektoren Und können in beiden bilinearen Formen nur orthogonal sein (dh beide obigen Ausdrücke sind Null), wenn sie ein Element haben .
Hat jemand ein Gegenbeispiel oder eine Idee für einen Beweis? Kann der Nachweis einzelne Elemente ansprechen oder müssten wir alle berücksichtigen ? Würde die mutmaßliche Eigenschaft bei unterschiedlichen Annahmen verloren gehen , dh wenn einige Elemente von identisch sind oder einige negativ sind?
Für Ideen bin ich dankbar.
Ich kam ein bisschen voran, blieb aber an einem späteren Punkt hängen.
Im Folgenden gebe ich die Sortierannahme der Diagonalelemente auf.
Wir betrachten zunächst das Gleichungssystem für zwei Spalten Und von :
Wir können dieses System in ein homogenes lineares System umwandeln
Wo . Wir transformieren die Koeffizientenmatrix
in reduzierte Zeilenstufenform: Wir normalisieren ,
subtrahiere die erste Zeile von der zweiten,
normalisiere die zweite Zeile,
und subtrahieren Sie eine skalierte Version der zweiten Reihe von der ersten
Wir stellen vor
und erhalten die reduzierte Zeilenstufenform
Für wir sehen das , somit sind die Nenner definiert und Und .
(Dieser Absatz betrachtet Verstöße gegen die Annahme paarweise verschiedener Elemente in . Es kann später nützlich sein. Wenn , müssen wir zwei Fälle unterscheiden. Ich falle gleich sind, dann die kann unter der Einschränkung beliebig gewählt werden . Wenn es mindestens ein Paar Diagonalelemente gibt, die sich voneinander unterscheiden, können wir sie als wlog auswählen Und , daher Und . Außerdem wählen wir die Diagonalelemente so aus, dass . In diesem Fall haben wir . Wenn auch , wir haben auch . Der Fall Ist nicht möglich.)
Wir bestimmen nun den Nullraum von . Aus wir erhalten
Wo sind freie Parameter. Dies führt zu
(Beachten Sie, dass dies keine Matrix ist, sondern ein Vektor, der so geschrieben ist, dass jede erscheint in einer separaten Spalte), somit wird der Nullraum von den Spalten der aufgespannt Matrix
Offensichtlich können wir a finden so dass beide Bilinearformen Null werden. Daher einzelne Vektoren beide Gleichungen erfüllen, sind nicht notwendigerweise Vektoren mit einem einzigen Nicht-Null-Element an verschiedenen Positionen: Nehmen Sie das an , Dann Und .
Daher müssen wir natürlich die gesamte Matrix betrachten :
Wenn wir das nur zeigen könnten erlaubt, alle diese Gleichungen zu erfüllen, konnten wir zeigen, dass alle Vektoren kann nur genau ein Element ungleich Null haben (was sein muss da die Vektoren Einheitsvektoren sind), die an unterschiedlichen Positionen erscheinen. Das Argument geht wie folgt vor: Wenn für alle , Dann hat null Elemente wo hat Elemente ungleich Null und umgekehrt. Nehmen Sie diesen einen Vektor an hat mehr als ein Element ungleich Null. Da die restlichen Vektoren ( ) mindestens ein Element ungleich Null haben (da es sich um Einheitsvektoren handelt), wäre es nicht möglich, sie zu finden andere Vektoren die ihr Nicht-Null-Element am haben verbleibende Nullstellen von .
Irgendwelche Ideen, wie man das zeigen kann? Danke!
Lassen Bohne Matrix. Dann ist genau dann diagonal, wenn jeder der Standardbasisvektoren ist ein Eigenvektor von . Wenn ist dann eine invertierbare Matrix ist genau dann diagonal, wenn die Spalten von sind Eigenvektoren von .
In Ihrem Fall haben Sie eine Diagonalmatrix mit unterschiedlichen Einträgen, was bedeutet, dass jeder Standardbasisvektor ist ein Eigenvektor. Da die Eigenwerte verschieden sind, ist jeder Eigenvektor ein Vielfaches von einigen . Dies bedeutet, dass, wenn Sie das annehmen für eine invertierbare Matrix diagonal ist , Sie wissen bereits, dass die Spalten von muss Vielfache der Eigenvektoren enthalten . Zum Beispiel ein Potenzial aussehen könnte
Wenden Sie nun die Tatsache an, dass Ihre orthogonal ist, und das muss jeder Eintrag sein .
Vielen Dank an Joppy für den Beweis. Ich habe den Beweis in meiner Notation umgeschrieben, ich hoffe, ich habe alle Schritte richtig gemacht:
Was wir letztendlich beweisen, ist das folgende Lemma:
Lassen sei eine Diagonalmatrix mit von Null verschiedenen und paarweise unterschiedlichen Einträgen. Lassen sei eine orthogonale Matrix. Wenn ist dann diagonal Wo ist eine vorzeichenbehaftete Permutationsmatrix ( ist eine diagonale Vorzeichenmatrix mit Einträgen , ist eine Permutationsmatrix).
(Ich bin mir nicht sicher, ob die Anforderung "ungleich Null" notwendig ist.)
Nachweisen:
Aussage 1: Die Eigenvektoren der Diagonalmatrix mit paarweise unterschiedlichen Einträgen ungleich Null sind die Basisvektoren , . Beweis: Die charakteristische Gleichung führt zu . Die Eigenvektorgleichung wird was zur Lösung führt Und , , und somit womit der Beweis von Aussage 1 abgeschlossen ist.
Aussage 2: Gehe davon aus ist eine invertierbare Matrix ( ist ein Sonderfall). Wenn diagonal ist, dann die Spalten von sind die Eigenvektoren von . Beweis: Wir drücken aus durch seine Säulen . Seit ist invertierbar, die Spalten von das Ganze überspannen (seit der Spalten müssen linear unabhängig sein). Somit kann jeder Vektor als Superposition der Spaltenvektoren ausgedrückt werden, auch der Vektor :
Wir betrachten die Säule von :
Da gehen wir davon aus ist diagonal (d. h. gleich einer Diagonalmatrix mit Elementen ), Wir wissen das
daher Und , . Daher wird die obige Überlagerungsgleichung zu
Wir sehen, dass die Vektoren , , sind die Eigenvektoren von , womit der Beweis von Aussage 2 abgeschlossen ist.
Nach Aussage 1 sind die Eigenvektoren von sind die Basisvektoren , und nach Aussage 2 die Eigenvektoren von sind die Säulen . Die Beauftragung von Zu kann jede Permutation sein :
womit der Beweis des Lemmas abgeschlossen ist.
Ralf
Joppy
Joppy