Wenn eine symmetrische Matrix mit allen symmetrischen Matrizen kommutiert, ist sie dann ein Vielfaches der Identität?

Ich weiß, wenn eine Matrix mit allen Matrizen pendelt, dann ist sie ein Vielfaches der Identität; siehe hier . Die gleiche Schlussfolgerung gilt, wenn eine (spezielle) orthogonale Matrix mit allen (speziellen) orthogonalen Matrizen pendelt, wie hier und hier gezeigt .

In diesem Zusammenhang frage ich mich, ob die folgende Behauptung wahr ist.

Behauptung : Wenn eine symmetrische Matrix A mit jeder anderen symmetrischen Matrix kommutiert, folgt daraus dann A = λ ICH für einige λ R ?

Na, hast du es versucht? Es scheint mir trivial zu sehen, dass es im schlimmsten Fall diagonal sein muss und dann ...
Dies gilt für symmetrische Matrizen über jedem Körper. Für die 2 × 2 Fall bedenken A D = D A Und A R = R A Wo D = ( 1 0 0 0 ) Und R = ( 0 1 1 0 ) .
@ user1551 Ich denke, das ist der Antwort unten, die als akzeptiert markiert wurde, weit überlegen.
@Servaes Ich denke, du bist hier ein bisschen hart. Seine/ihre Antwort ist zumindest richtig.

Antworten (3)

Lassen E ich J bezeichne die Matrix mit a 1 im ( ich , J ) -ten Platz und 0 ist überall sonst. Dann E ich ich symmetrisch ist, und so aus

E ich ich A = A E ich ich ,
Daraus folgt, dass die ich -te Zeile und Spalte sind alle Nullen außer in der ich - Platz. Dies zeigt, dass A diagonal ist.

Auch E ich J + E J ich ist diagonal, und so aus

( E ich J + E J ich ) A = A ( E ich J + E J ich ) ,
Daraus folgt, dass die ich -ten und J -te diagonale Einträge von A sind gleich. Dies zeigt, dass A = C ICH für einige konstant C .

Beachten Sie, dass nichts davon voraussetzt, dass die Matrizen real sind; dies gilt für Matrizen über jedem kommutativen Ring.

Lassen v 1 , v 2 Eigenvektoren von sein A mit unterschiedlichen Eigenwerten λ 1 , λ 2 . Lassen C sei eine beliebige symmetrische Matrix. Wir haben:

v 1 | C A | v 2 = λ 2 v 1 | C | v 2 v 1 | C A | v 2 = v 1 | A C | v 2 = λ 1 v 1 | C | v 2
Also haben wir λ 2 v 1 | C | v 2 = λ 1 v 1 | C | v 2 für jede symmetrische Matrix C . Einstellung C = | v 1 + v 2 v 1 + v 2 | und das zu wissen v 1 | v 2 = 0 (als Eigenvektoren unterschiedlichen Eigenwerts für symmetrische Matrizen) erhalten wir λ 1 = λ 2 . Das ist ein Widerspruch, also A hat keine eindeutigen Eigenwerte. Deshalb A = λ ICH .

Bearbeiten: Wir können den Beweis verstärken, indem wir die Symmetrieannahme für fallen lassen A . Das Weglassen der Symmetrieannahme würde den Beweis mit Eigenvektoren von erschweren A . Wenn wir mit anfangen v 1 , v 2 als Eigenvektoren von C anstatt A , und führen die gleichen algebraischen Manipulationen durch, erhalten wir:

λ 2 v 1 | A | v 2 = λ 1 v 1 | A | v 2
Wo v 1 , v 2 sind eigenwertige Eigenvektoren von C . Als C ein frei gewählter symmetrischer Operator ist, v 1 | A | v 2 = 0 für alle v 1 , v 2 mit v 1 , v 2 = 0 . Wir haben A v 2 ist orthogonal zum orthogonalen Komplement von v 2 , So A v 2 ist proportional zu v 2 , für alle Vektoren v 2 . Daher A = λ ICH .

Bitte erläutern Sie die Notation v 1 | A | v 2 Und , bzw .
Es wird von Physikern verwendet. v 1 | A | v 2 Ist v 1 T A v 2 , oder das Skalarprodukt von v 1 Zu A v 2 .
Es gibt nur 3 Regeln zu dieser Notation: 1 ) v 1 | bedeutet v 1 T 2) | v 1 bedeutet v 1 3) Wenn Sie diese Objekte mit kompatiblen Abmessungen hintereinander platzieren, bezeichnet dies einfach eine Kette von Matrixprodukten. Z.B: C = | v 1 + v 2 v 1 + v 2 | wir haben | v 1 + v 2 = ( v 1 + v 2 ) T , ist ein N × 1 Matrix. v 1 + v 2 | ist ein 1 × N Matrix. C , als Matrixprodukt dieser beiden, ist a N × N Matrix. Wenn Sie sie also andersherum schreiben, erhalten Sie das Skalarprodukt: v 1 + v 2 | v 1 + v 2
OK. Danke.

Hier ist ein anderer Beweis, der mehr Maschinen hat, aber in Bezug auf die Technik interessant sein könnte. Eine immer wieder nützliche Idee für diese Art von Fragen ist es, sich die Grundlagen der Darstellungstheorie endlicher Gruppen zunutze zu machen, insbesondere in Anlehnung an Permutationsgruppen und Schurs Lemma.

Das Folgende funktioniert für R und seine Erweiterung C . (Im komplexen Fall läuft der Beweis im wesentlichen gleich ab, ob wir betrachten A hermitesch oder symmetrisch sein.)

radikal gestraffter Beweis
, um diese Behauptung für beliebige Symmetrie zu beweisen N × N Matrix A , betrachten Sie zunächst die Standard-Matrixdarstellung von S N + 1 , und nennen Sie diese Matrixgruppe M ( S N + 1 ) . Diese Gruppe ist eine direkte Summe der trivialen Darstellung und einer Irreduziblen N dimensionale Darstellung.

Die Generatoren von M ( S N + 1 ) Sind N + 1 × N + 1 elementarer Typ 2, Matrizen E 2 ( k ) , die jeweils symmetrisch sind. Betrachten Sie nun orthogonal U R N + 1 × N + 1 Wo u 1 1 . Also für P M ( S N + 1 ) ,

P = k E 2 ( k ) Und P ' = U T P U = U T ( k E 2 ( k ) ) U = k ( U T E 2 ( k ) U )
jede ( U T E 2 ( k ) U ) ist notwendigerweise symmetrisch und von der Form
[ 1 0 0 Y N ]
Wo Y N ist die oben erwähnte n-dim irreduzible Darstellung und Y N ist also symmetrisch.

Daher die N dimensionale irreduzible Matrix rep for S N + 1 wird durch ein Produkt symmetrischer Matrizen ( Y N ). Und A kommutiert also mit jedem n-dimensionalen Generator A pendelt mit der N dimensionale irreduzible Matrixdarstellung. Vorübergehende Überarbeitung C , wenden wir Schurs Lemma an A = λ ICH N Wo λ R seit A ist echt.

Original, längerer Beweis
0.) 2 × 2 Fall
Durch direkte Berechnung können Sie das Ergebnis anzeigen (dh A pendelt mit einer Diagonalmatrix mit unterschiedlichen Elementen auf der Diagonalen so A muss diagonal sein und pendelt dann mit einer nicht diagonalen Matrix, die so symmetrisch ist A ICH ).

Eine unmittelbare Folge für die N × N Fall ist
im Spezialfall das A = [ 0 0 λ ICH N 1 ] und kommutiert mit allen symmetrischen Matrizen A = λ ICH N

1.) N × N Fall
A kommutiert mit allen symmetrischen Matrizen, also kommutiert er mit allen elementaren Typ-2-Matrizen E 2 ( J ) . Diese erzeugen die Standardmatrixdarstellung der Permutationsgruppe S N , was eine endliche Gruppe ist. Ich werde diese Matrixgruppe nennen M ( S N ) . Seit A pendelt mit den Generatoren, A pendelt mit M ( S N ) .

Jede P M ( S N ) ist eine direkte Summe der trivialen Darstellung und einer Irreduziblen N 1 Dim-Darstellung (dies ist zB eine Übung in Artins Algebra 's Rep-Theorie-Kapitel, beide Ausgaben).

Betrachten Sie schließlich reelle Orthogonale Q Wo Q 1 = 1 N 1 (dh der Einer-Vektor) und für beliebige P M ( S N ) definieren
P ' := Q T P Q = [ 1 0 0 B N 1 ]
Wo B N 1 ist das Irreduzible N 1 oben erwähnte dimensionale Darstellung.

Wir beobachten P ' = Q T ( J E 2 ( J ) ) Q = J ( Q T E 2 ( J ) Q ) jedes davon ist also symmetrisch A pendelt mit P ' . Es gibt verschiedene Möglichkeiten zum Abschluss.

ZB mit der P C ' = Q T P C Q , Wo P C ist der zyklische Verschiebungsoperator (dh Begleitmatrix für X N 1 ) wir haben ( P C ' ICH N ) A e 1 = A ( P C ' ICH N ) e 1 = 0 A e 1 e 1 Weil A e 1 Ker ( P C ' ICH N ) = { a e 1 } . Daher

A = [ 0 Z N 1 ] = [ 0 0 Z N 1 ]
seit A ist symmetrisch.

Aber Z N 1 pendelt mit willkürlich B N 1 was eine irreduzible Darstellung ist (und vorübergehend über das Erweiterungsfeld arbeitet C ) daher sagt uns Schurs Lemma das Z N 1 = λ ICH N 1 und die Anwendung des obigen Korrollars sagt uns A = λ ICH N