Vektoren gleichzeitig orthogonal in zwei verschiedenen bilinearen Formen mit diagonalen Matrizen

Ich interessiere mich für die orthogonale Ähnlichkeitstransformation von Diagonalmatrizen, siehe auch meine vorherigen Fragen Eigenschaften der orthogonalen Ähnlichkeitstransformation und orthogonale Ähnlichkeitstransformation einer Diagonalmatrix durch eine Permutationsmatrix: Rückwärtsrichtung . Annehmen, dass D ist eine Diagonalmatrix mit positiven und paarweise verschiedenen Elementen D 1 > > D N > 0 Und Q eine orthogonale Matrix. Wenn die orthogonale Ähnlichkeitstransformation Q T D Q eine Diagonalmatrix ist, haben wir Ausdrücke

Q ich T D Q J = 0
für die außerdiagonalen Elemente ( ich J ). Gleichzeitig haben wir
Q ich T Q J = Q ich T ICH Q J = 0
für diese Elemente und Q ich = 1 .

Meine Vermutung ist, dass Einheitsvektoren Q ich Und Q J können in beiden bilinearen Formen nur orthogonal sein (dh beide obigen Ausdrücke sind Null), wenn sie ein Element haben ± 1 .

Hat jemand ein Gegenbeispiel oder eine Idee für einen Beweis? Kann der Nachweis einzelne Elemente ansprechen ( ich , J ) oder müssten wir alle berücksichtigen ( ich , J ) ? Würde die mutmaßliche Eigenschaft bei unterschiedlichen Annahmen verloren gehen D , dh wenn einige Elemente von D identisch sind oder einige negativ sind?

Für Ideen bin ich dankbar.


Ich kam ein bisschen voran, blieb aber an einem späteren Punkt hängen.

Im Folgenden gebe ich die Sortierannahme der Diagonalelemente auf.

Wir betrachten zunächst das Gleichungssystem für zwei Spalten Q Und P von Q :

Q T D P = 0 Q T P = 0.

Wir können dieses System in ein homogenes lineares System umwandeln

( D 1 D 2 D 3 D N 1 1 1 1 ) ( z 1 z N ) = ( 0 0 )

Wo z ich = Q ich P ich . Wir transformieren die Koeffizientenmatrix

C = ( D 1 D 2 D 3 D N 1 1 1 1 )

in reduzierte Zeilenstufenform: Wir normalisieren D ich ' = D ich / D 1 ,

( 1 D 2 ' D 3 ' D N ' 1 1 1 1 ) ,

subtrahiere die erste Zeile von der zweiten,

( 1 D 2 ' D 3 ' D N ' 0 1 D 2 ' 1 D 3 ' 1 D N ' ) ,

normalisiere die zweite Zeile,

( 1 D 2 ' D 3 ' D N ' 0 1 1 D 3 ' 1 D 2 ' 1 D N ' 1 D 2 ' ) ,

und subtrahieren Sie eine skalierte Version der zweiten Reihe von der ersten

( 1 0 D 3 ' 1 D 3 ' 1 D 2 ' D 2 ' D N ' 1 D N ' 1 D 2 ' D 2 ' 0 1 1 D 3 ' 1 D 2 ' 1 D N ' 1 D 2 ' ) .

Wir stellen vor ich 3

A ich := D ich ' 1 D ich ' 1 D 2 ' D 2 ' = D ich ' ( 1 D 2 ' ) ( 1 D ich ' ) D 2 ' 1 D 2 ' = D ich ' D 2 ' 1 D 2 ' B ich := 1 D ich ' 1 D 2 '

und erhalten die reduzierte Zeilenstufenform

C ' = ( 1 0 A 3 A N 0 1 B 3 B N ) .

Für D ich D J ich J wir sehen das 1 D ich ' 0 ich 2 , somit sind die Nenner definiert und B ich 0 ich 3 Und A ich 0 ich 3 .

(Dieser Absatz betrachtet Verstöße gegen die Annahme paarweise verschiedener Elemente in D . Es kann später nützlich sein. Wenn ich , J ( ich J ) : D ich = D J , müssen wir zwei Fälle unterscheiden. Ich falle D ich gleich sind, dann die z ich kann unter der Einschränkung beliebig gewählt werden ich = 1 N z ich = 0 . Wenn es mindestens ein Paar Diagonalelemente gibt, die sich voneinander unterscheiden, können wir sie als wlog auswählen D 1 Und D 2 , daher D 1 D 2 Und 1 D 2 ' 0 . Außerdem wählen wir die Diagonalelemente so aus, dass ich ( ich 3 ) : D 2 = D ich . In diesem Fall haben wir A ich = 0 . Wenn auch J ( J 3 ) : D 1 = D J , wir haben auch B J = 0 . Der Fall A ich = B ich = 0 Ist nicht möglich.)

Wir bestimmen nun den Nullraum von C . Aus C ' z = 0 wir erhalten

z 1 + z 3 A 3 + z N A N = 0 z 2 + z 3 B 3 + z N B N = 0

Wo z 3 , , z N sind freie Parameter. Dies führt zu

z = ( z 3 A 3 z 4 A 4 z N A N z 3 B 3 z 4 B 4 z N B N z 3 z 4 z N )

(Beachten Sie, dass dies keine Matrix ist, sondern ein Vektor, der so geschrieben ist, dass jede z ich erscheint in einer separaten Spalte), somit wird der Nullraum von den Spalten der aufgespannt N × ( N 2 ) Matrix

( A 3 A 4 A N B 3 B 4 B N 1 1 1 ) .

Offensichtlich können wir a finden z 0 so dass beide Bilinearformen Null werden. Daher einzelne Vektoren Q , P beide Gleichungen erfüllen, sind nicht notwendigerweise Vektoren mit einem einzigen Nicht-Null-Element an verschiedenen Positionen: Nehmen Sie das an z ich 0 , Dann Q ich 0 Und P ich 0 .

Daher müssen wir natürlich die gesamte Matrix betrachten Q :

Q ich T D Q J = 0 ich J Q ich T Q J = 0 ich J .

Wenn wir das nur zeigen könnten z = 0 erlaubt, alle diese Gleichungen zu erfüllen, konnten wir zeigen, dass alle Vektoren Q ich kann nur genau ein Element ungleich Null haben (was sein muss ± 1 da die Vektoren Einheitsvektoren sind), die an unterschiedlichen Positionen erscheinen. Das Argument geht wie folgt vor: Wenn z k = Q ich , k Q J , k = 0 für alle k , Dann Q ich hat null Elemente wo Q J hat Elemente ungleich Null und umgekehrt. Nehmen Sie diesen einen Vektor an Q ich hat mehr als ein Element ungleich Null. Da die restlichen N 1 Vektoren Q J ( J ich ) mindestens ein Element ungleich Null haben (da es sich um Einheitsvektoren handelt), wäre es nicht möglich, sie zu finden N 1 andere Vektoren Q J die ihr Nicht-Null-Element am haben N 2 verbleibende Nullstellen von Q ich .

Irgendwelche Ideen, wie man das zeigen kann? Danke!

Antworten (2)

Lassen A Bohne N × N Matrix. Dann A ist genau dann diagonal, wenn jeder der Standardbasisvektoren e 1 , , e N ist ein Eigenvektor von A . Wenn Q ist dann eine invertierbare Matrix Q 1 A Q ist genau dann diagonal, wenn die Spalten von Q sind Eigenvektoren von A .

In Ihrem Fall haben Sie eine Diagonalmatrix D mit unterschiedlichen Einträgen, was bedeutet, dass jeder Standardbasisvektor e ich ist ein Eigenvektor. Da die Eigenwerte verschieden sind, ist jeder Eigenvektor ein Vielfaches von einigen e ich . Dies bedeutet, dass, wenn Sie das annehmen Q 1 D Q für eine invertierbare Matrix diagonal ist Q , Sie wissen bereits, dass die Spalten von Q muss Vielfache der Eigenvektoren enthalten e ich . Zum Beispiel ein Potenzial Q aussehen könnte

Q = ( 0 6 0 2 0 0 0 0 1 ) .

Wenden Sie nun die Tatsache an, dass Ihre Q orthogonal ist, und das muss jeder Eintrag sein ± 1 .

Vielen Dank! Allerdings kämpfe ich immer noch mit einigen Bedingungen und mit den "Wenn-und-nur-wenn". Lassen Sie mich die beiden Richtungen in jeder der beiden Aussagen in Ihrem ersten Absatz trennen: „Wenn A diagonal ist, dann sind Basisvektoren EV von A " gilt, aber nur, wenn die Diagonalelemente paarweise verschieden sind. "Wenn Basisvektoren EV sind A Dann A diagonal ist" gilt (spektrale Zerlegung). "Wenn Spalten von Q sind EV von A Dann Q 1 A Q ist diagonal" gilt (spektrale Zerlegung). Wie zeigt man jedoch, dass "wenn Q 1 A Q ist diagonal dann Spalten von Q sind EV von A "?
@ Ralf Ehrlich gesagt denke ich an A Und Q 1 A Q als Matrizen, die demselben linearen Operator zugrunde liegen, wo A ist die Matrix in der Standardbasis und Q 1 A Q ist die Matrix in einer anderen Basis. Ein wenig Nachdenken zeigt, dass diese andere Basis die Säulen von sein müssen Q . Das können wir aber auch direkt sehen. Lassen Sie die Spalten von Q Sei Q 1 , , Q N , und nehme an A Q 1 = A 1 Q 1 + + A N Q N . Dann Q 1 A Q e 1 = Q 1 A Q 1 = Q 1 ( A 1 Q 1 + + A N Q N ) = A 1 e 1 + A N e N . Aber falls Q 1 A Q diagonal ist, dann muss diese endgültige Antwort einfach sein A 1 e 1 ...
... und das haben wir auch A 2 = = A N = 0 . Somit A Q 1 = A 1 Q 1 und so Q 1 ist ein Eigenvektor von A . Die gleiche Logik gilt für alle Q ich .

Vielen Dank an Joppy für den Beweis. Ich habe den Beweis in meiner Notation umgeschrieben, ich hoffe, ich habe alle Schritte richtig gemacht:

Was wir letztendlich beweisen, ist das folgende Lemma:

Lassen D sei eine Diagonalmatrix mit von Null verschiedenen und paarweise unterschiedlichen Einträgen. Lassen Q sei eine orthogonale Matrix. Wenn Q T D Q ist dann diagonal Q = P ' Wo P ' = Ξ P ist eine vorzeichenbehaftete Permutationsmatrix ( Ξ ist eine diagonale Vorzeichenmatrix mit Einträgen ± 1 , P ist eine Permutationsmatrix).

(Ich bin mir nicht sicher, ob die Anforderung "ungleich Null" notwendig ist.)

Nachweisen:

Aussage 1: Die Eigenvektoren der Diagonalmatrix D mit paarweise unterschiedlichen Einträgen ungleich Null sind die Basisvektoren ± e ich , ich = 1 , , N . Beweis: Die charakteristische Gleichung det { D λ ICH } = 0 führt zu λ ich = D ich . Die Eigenvektorgleichung ( D λ ich ICH ) v ich = 0 wird ( D D ich ICH ) v ich = 0 was zur Lösung führt ( v ich ) ich = ± 1 Und ( v ich ) J = 0 , J ich , und somit v ich = ± e ich womit der Beweis von Aussage 1 abgeschlossen ist.

Aussage 2: Gehe davon aus Q ist eine invertierbare Matrix ( Q 1 = Q T ist ein Sonderfall). Wenn Q 1 D Q diagonal ist, dann die Spalten von Q sind die Eigenvektoren von D . Beweis: Wir drücken aus Q durch seine Säulen Q = ( Q 1 Q N ) . Seit Q ist invertierbar, die Spalten von Q das Ganze überspannen R N (seit der N Spalten müssen linear unabhängig sein). Somit kann jeder Vektor als Superposition der Spaltenvektoren ausgedrückt werden, auch der Vektor D Q ich :

D Q ich = J = 1 N A ich J Q J .

Wir betrachten die Säule ich von Q 1 D Q :

( Q 1 D Q ) e ich = Q 1 D Q ich = Q 1 J = 1 N A ich J Q J = J = 1 N A ich J e J .

Da gehen wir davon aus Q 1 D Q ist diagonal (d. h. gleich einer Diagonalmatrix D ' mit Elementen D ich ' ), Wir wissen das

( Q 1 D Q ) e ich = D ich ' e ich J = 1 N A ich J e J = D ich ' e ich

daher A ich ich = D ich ' Und A ich J = 0 , J ich . Daher wird die obige Überlagerungsgleichung zu

D Q ich = D ich ' Q ich , ich = 1 , , N .

Wir sehen, dass die Vektoren Q ich , ich = 1 , , N , sind die Eigenvektoren von D , womit der Beweis von Aussage 2 abgeschlossen ist.

Nach Aussage 1 sind die Eigenvektoren von D sind die Basisvektoren ± e J , und nach Aussage 2 die Eigenvektoren von D sind die Säulen Q ich . Die Beauftragung von J Zu ich kann jede Permutation sein π :

Q ich = ± e π ( ich )

womit der Beweis des Lemmas abgeschlossen ist.