Warum ist die Multiplikation einer Kovarianzmatrix mit der Umkehrung ihrer Summe mit der Einheitsmatrix symmetrisch?

Ich habe ein empirisches Ergebnis (das heißt, es ist immer wahr durch einfache Simulation, z. B. in R), das ich mir selbst nicht beweisen kann:

Lassen A sei ein N × N Kovarianzmatrix (dh es ist symmetrisch PSD), let ICH N sei die Identitätsmatrix, θ 1 Und θ 2 einige Skalare (in meinem Fall sind sie immer positiv, aber es spielt keine Rolle). Lassen:

v = ( θ 1 A + θ 2 ICH N ) 1 A

Es scheint, dass v ist immer symmetrisch! Können wir es beweisen?

Bsp in R:

A <- cov(rbind(c(1,2.1,3), c(3,4,5.3), c(3,4.2,0)))
isSymmetric(solve(2 * A + 3 * diag(3)) %*% A)
[1] TRUE

Für alle Interessierten: Es ist mir vor allem deshalb wichtig, weil ich dadurch zwei symmetrische Matrizen habe A , B die sich zu einer symmetrischen Matrix multiplizieren A B , in welchem ​​Fall seine Eigenwerte tatsächlich Multiplikationen der Eigenwerte von sind A Und B nach diesem , was auch seine Spur vereinfacht.

Beachten Sie, dass A zerlegt werden können P Λ P 1 . Außerdem, ICH = P ICH P 1 . So, ( θ 1 A + θ 2 ICH ) 1 A = ( θ 1 P Λ P 1 + θ 2 P ICH P 1 ) 1 P Λ P 1 = P ( θ 1 Λ + θ 2 ICH ) 1 P 1 P Λ P 1 , was bedeutet, dass die resultierende Matrix die Form hat P Ξ P 1 mit Ξ diagonal sein. Das Produkt ist also symmetrisch (als P ist orthonormal, dh P ' = P 1 )
@lmaosome warum ist Ξ Diagonale?
Weil P ( θ 1 Λ + θ 2 ICH ) 1 P 1 P Λ P 1 = P ( θ 1 Λ + θ 2 ICH ) 1 Λ P 1 . Jetzt setzen Ξ = ( θ 1 Λ + θ 2 ICH ) 1 Λ . Es ist offensichtlich das θ 2 ICH ist diagonal, Λ ist konstruktionsbedingt diagonal, und das Produkt diagonaler Matrizen ist ebenfalls diagonal. So Ξ diagonal ist
Richtig, verwechselt mit A . Das ist wirklich ein toller Beweis!

Antworten (2)

v = ( θ 1 A + θ 2 ICH N ) 1 A ( θ 1 A + θ 2 ICH N ) v = A v ( θ 1 A + θ 2 ICH N ) = A v ( θ 1 A + θ 2 ICH N ) = A v ( θ 1 A + θ 2 ICH N ) A 1 = ICH N v ( θ 1 ICH N + θ 2 A 1 ) = ICH N v A 1 ( θ 1 A + θ 2 ICH N ) = ICH N v A 1 = ( θ 1 A + θ 2 ICH N ) 1 v = ( θ 1 A + θ 2 ICH N ) 1 A

Hinweis: Es ist viel kürzer, wenn Sie das wissen ( ) Und ( ) 1 pendeln


Einen allgemeinen Satz angeben, gegeben P ( X , j ) , Q ( X , j ) zwei Polynome (oder sogar irgendeine Funktion, wenn Sie wissen, wie man diese auf Matrizen anwendet), dann P ( A , A 1 ) Und Q ( A , A 1 ) pendeln wenn A symmetrisch ist (hermitesch falls komplex).

Akzeptieren Sie diese Antwort, aber lesen Sie auch den Kommentar von lmaosome, warum diese Matrizen pendeln.

Wenn

X Y = Y X
dann durch Multiplikation mit links und rechts mit X 1 :
Y X 1 = X 1 Y
Also seit [ ( θ 1 ICH + θ 2 A ) , A ] = 0 Auch [ ( θ 1 ICH + θ 2 A ) 1 , A ] = 0 , also ist das Produkt symmetrisch (all dies unter der Annahme, dass alle Inversen existieren usw.).

Das verstehe ich nicht, warum pendeln sie? Danke.
mein Kommentar enthält den Beweis; Beachten Sie, dass ( θ 1 Λ + θ 2 ICH ) 1 Und Λ pendeln. Nachdem Sie ihre Positionen vertauscht haben, rechnen Sie wieder ein P Und P 1
@GioraSimchoni ist diese Bearbeitung besser?
@ user619894 Ich habe mit lmaosomes Kommentar verstanden, warum sie pendeln. Das [ A , B ] Notation ist mir unklar, aber ich vermute, ich bin das Problem. Danke.
[ A , B ] = A B B A und heißt Kommutator