Kongruenztransformationen von Matrizen

Aus dem Buch Analytical Mechanics von Fowles und Cassiday studiere ich klassische gekoppelte harmonische Oszillatoren. Dies sind Systeme, die von einem System linearer Differentialgleichungen zweiter Ordnung der Form beherrscht werden M Q ¨ + K Q = 0 . Hier wollen Sie lösen Q als Funktion der Zeit T Und M , K sind quadratische Matrizen. Du versuchst dich anzuschließen Q = A cos ( ω T δ ) für unbestimmt A , ω , δ um das Gleichungssystem zu erhalten ( K ω 2 M ) A cos ( ω T δ ) = 0 .

Um nicht-triviale Lösungen zu finden, müssen Sie die Wurzeln finden ω 1 2 , , ω k 2 von det ( K ω 2 M ) als Polynom in ω 2 und dann rechnen Ker ( K ω ich 2 M ) für ich = 1 , , k .

Nehmen wir nun die Kerne an Ker ( K ω ich 2 M ) , ich = 1 , , k überspannen den gesamten linearen Raum, also haben Sie eine Basis von "Eigenvektoren" A 1 , , A N (Ich verwende Anführungszeichen, weil sie genau genommen keine Eigenvektoren sind). Dann können Sie eine Basistransformationsmatrix erstellen A mit den Vektoren A ich als Säulen.

1) Das Buch behauptet dann, dass die Kongruenztransformationen A T K A Und A T M A sind Diagonalmatrizen. Warum ist das so?

Bearbeiten: Ein Gegenbeispiel wird durch Nehmen gegeben M = K = [ 1 1 1 1 ] so dass ω 2 = 1 ist die einzige Wurzel der Determinantengleichung und A = ICH 2 . Dann sind die Kongruenztransformationen nur die Matrizen selbst: A T K A = K Und A T M A = M .

Die Folgefrage lautet also: welche Annahmen auf M Und K muss hinzugefügt werden, damit diese Behauptung gilt?

2) Was ist die Intuition hinter einer solchen Kongruenztransformation? Für eine Ähnlichkeitstransformation aus einer Matrix B Zu D = P 1 B P Ich kann das intuitiv interpretieren als: von der Basis ausgehen P e 1 , , P e N zur Grundlage e 1 , , e N . Ist eine ähnliche Interpretation auch für Kongruenztransformationen möglich?

Das könnte gefallen .

Antworten (2)

Ich habe Ihr Buch nicht, und ich würde es nur ungern schattenboxen und falsch lesen, indem ich es virtuell nachbaue ... Der zugegebenermaßen verwirrende Punkt in der Hauptachsentransformation, die Sie in Betracht ziehen, wird in Goldsteins klassischer Mechanik akribisch und gut behandelt Buch, Ch 10-2. Sie haben im Grunde recht, dass willkürlich M Und K wird deine Aussage verfälschen. Wenn Sie das Folgende vorwegnehmen, haben Sie es mit einer Art Orthogonalität in einem nicht-kartesischen Raum zu tun, und die zügellose Verallgemeinerung ist den Aufwand kaum wert.

Mein Gegenbeispiel wäre die Verwendung hermitescher Pauli-Matrizen. Also, nimm blind eine fiese "Massen"-Matrix,

M = σ 2 = [ 0 ich ich 0 ] ,
(was zu imaginären führen wird ω 2 s!) und ein symmetrisches reelles Potential, K = σ 1 = [ 0 1 1 0 ] . Ihre Bewegungsgleichung Q ¨ = M 1 K Q = ich σ 3 Q wird leicht gelöst durch
e ± ich T [ 1 0 ] ,       Und        e ± ich T [ 0 1 ] ,
also deine Modalmatrix A = ICH = A T , ziemlich düster, um überhaupt etwas zu diagonalisieren. (Sie hätten dieselbe Modalmatrix von Ihrer Determinante gefunden.)

Es gelten jedoch Auflagen M , genauso an K . Es ist normalerweise reell, symmetrisch und positiv definit und führt zu real ω 2 . Sie können es also zuerst durch eine orthogonale Transformation diagonalisieren und dann die positiven Eigenwerte der resultierenden Diagonalmatrix in einer Neudefinition / Neuskalierung der Koordinaten durch ihre Quadratwurzel absorbieren. Als Ergebnis die neue M = ICH und üblich reell, symmetrisch K 's gehen zu echten, symmetrischen über.

Aber jetzt hat sich Ihre Eigenwertgleichung zu entwickelt K Q = ω 2 Q , mit reellem Eigenwert, dessen Säkulargleichung auf übergegangen ist det ( K ω 2 ICH ) = 0 , während Ihre Modalmatrix A = R ist nur eine orthogonale Drehung, R T = A 1 , und es diagonalisiert K , wobei die Identitätsmassenmatrix allein gelassen wird.

Nun, denken Sie an die respektable Menge M als eine Art effektiver Metrik des Raums der Normalmoden, aber, wie angegeben, für echte Symmetrie M Und K , Ersteres mit positiven Eigenwerten ungleich Null, können Sitz-der-Hose-Typen die Kongruenz als eine Zusammensetzung von Rotationen und eine faden Neuskalierung von Koordinaten betrachten, nur eine Falte in einem langweiligen Diagonalisierungsproblem.

  • Hier ist die einfachste Illustration, die ich mir vorstellen konnte. Nehmen
    K = [ 0 1 1 0 ] ,           Aber         M = [ 4 0 0 1 ] .
    Die Massenmatrix ist bei Drehungen nicht unveränderlich, also könnten wir beide Matrizen um etwas drehen, um sie nicht diagonal zu machen, aber nehmen wir an, Sie haben das Gegenteil bereits getan.

Beginnen Sie dann mit der von mir skizzierten Dekonstruktion. Neu skalieren Q S X mit S = S T =diag (1/2, 1), so dass

S K S X = ω 2 X
ist jetzt eine echte Eigenwertgleichung! (Zufällig ist die lhs-Matrix K / 2 Hier.)

Die Eigenvektoren für die symmetrische S K S sind die üblichen für σ 1 ,

1 2 [ 1 1 ] ,
gegenseitig orthogonal, also ist die Modalmatrix jetzt orthogonal und diagonalisiert diese transformierte Potentialmatrix, während sie die Identität belässt S M S = ICH allein, also auch diagonal. Eigentlich trivial. Wie stellt sich dies in der Kongruenzsprache Ihrer Frage dar?

Das Lösen des gleichen Systems von Anfang an, aber jetzt ohne Vorteil der obigen Drehung und Neuskalierung, ergibt Nullvektoren

A 1 , 2 = 1 5 [ 1 2 ] ,
mit echt ω 2 und eine invertierbare Modalmatrix
A = 1 5 [ 1 1 2 2 ] ,
was definitiv nicht orthogonal ist ( S R ); aber diagonalisiert natürlich beides K Und M (es verlässt eher die letztere Diagonale) aus offensichtlichen Gründen, wenn man die obige einfache Dekonstruktion betrachtet. Eine echte Äquivalenzrelation. Ein Wechsel der Basis zu normalen Modi,
A e ich = A ich .

Bewaffnet mit dieser Intuition könnten Sie fortfahren, einen formal akzeptablen Weg zu den Aussagen des Buches zu wählen, wahrscheinlich in Anlehnung an die Fußnote.


In Betracht ziehen

A ich ( K ω ich 2 M ) A ich = 0 ω ich 2 = A ich K A ich / A ich M A ich
ohne implizite Summierung über Modusindizes i . So alles ω ich 2 sind real. Sie können die Nullvektoren ebenfalls anzeigen A ich bezüglich einer Metrik zueinander orthogonal sind M , und orthonormalisieren sie st A ich M A J = δ ich J , wie es oben weniger formell effektiv gemacht wurde.

Warum A T M A Und A T K A sind Diagonalmatrizen.

wir wollen diese vektorielle Differentialgleichung lösen

(1) M Q ¨ + K Q = 0
oder
(2) Q ¨ + M 1 K Q = 0

Um Gleichung (2) zu lösen, machen wir diesen Ansatz:

Q = ( A e ich ω T )

also Gleichung (2)

(3) ( ω 2 ICH + M 1 K ) E A = 0

mit det ( E ) = 0 Sie erhalten die Eigenwerte ω ich 2 und für jeden ω ich 2 die Eigenvektoren A ich

Wo A ich T A J = 1 für  ich = J Und A ich T A J = 0 für  ich J

die Transformationsmatrix A wird mit den Eigenvektoren gebildet A ich

A = [ A 1 , A 2 , , A N ]

daher:

A T M 1 K A = Λ
Wo Λ Ist N × N diagonale Matrix

Λ = Diagonale [ ω 1 2 , ω 2 2 , , ω N 2 ]

wir können uns verwandeln Q mit der Matrix A und bekomme: Q = A Q M also Gleichung (1)

(4) A T M A Q ¨ M + A T K A Q M = 0

oder:

(5) Q ¨ M + ( A T M A ) 1 ( A T K A ) Q M = 0

mit:

( A T M A ) 1 Q 1 ( A T K A ) Q 2 = A T M 1 A A T K A = A T M 1 K A = Λ

Weil Λ ist also Diagonalmatrix Q 1 Und Q 2 muss also eine Diagonalmatrizen sein

A T M A Und A T K A sind Diagonalmatrizen. qed

Beispiel:

M = K = [ 1 1 1 1 ]

M 1 K = [ 1 0 0 1 ]

somit sind die Eigenwerte: ω 1 2 = ω 2 2 = 1

Da die Eigenwerte gleich sind, müssen Sie den Jordan-Ansatz verwenden, um die Eigenvektoren, also die Transformationsmatrix, zu erhalten A = [ A 1 , A 2 ]

A = [ 1 0 1 1 ]

A T M A = A T K A = [ 2 0 0 1 ]

und die Lösung ist der Realteil dieser Gleichung:

Q ( T ) = ( C 1 A 1 + C 2 A 2 ) e ich T

Wo C 1 Und C 2 sind komplexe Konstanten.

mit C 1 = C 1 R + ich C 1 ICH , C 2 = C 2 R + ich C 2 ICH

du bekommst die lösung

Q 1 ( T ) = C 1 R cos ( T ) C 1 ICH Sünde ( T )
Q 2 ( T ) = ( C 1 R + C 2 R ) cos ( T ) ( C 1 ICH + C 2 ICH ) Sünde ( T )

Sie haben vier Konstanten für vier Anfangsbedingungen