Beweis der Polarisationsidentität für Operatoren in komplexen Vektorräumen

Damit zwei Operatoren gleich sind, müssen im Allgemeinen alle ihre (Matrix-)Elemente gleich sein

A = B ϕ 1 | A | ϕ 2 = ϕ 1 | B | ϕ 2

Ich soll jedoch zeigen, dass es in komplexen Vektorräumen ausreicht, einfach zu sagen:

A = B ϕ 1 | A | ϕ 1 = ϕ 1 | B | ϕ 1

Bei meinem Versuch, dies zu zeigen, habe ich Folgendes getan:

| ϕ 1 = | ψ 1 + ich | ψ 2 ϕ 1 | A | ϕ 1 = ( ψ 1 | + ich ψ 2 | ) A ( | ψ 1 + ich | ψ 2 ) = ( ψ 1 | + ich ψ 2 | ) B ( | ψ 1 + ich | ψ 2 ) = ϕ 1 | B | ϕ 1

was mir, wenn es erweitert wurde, gab

ψ 1 | A | ψ 1 + ich ψ 1 | A | ψ 2 ich ψ 2 | A | ψ 1 + ψ 2 | A | ψ 2 = ψ 1 | B | ψ 1 + ich ψ 1 | B | ψ 2 ich ψ 2 | B | ψ 1 + ψ 2 | B | ψ 2

Das Aufheben von Bedingungen auf beiden Seiten hinterlässt bei mir:

ich ψ 1 | A | ψ 2 ich ψ 2 | A | ψ 1 = ich ψ 1 | B | ψ 2 ich ψ 2 | B | ψ 1

Darüber hinaus habe ich eine weitere Gleichheit konstruiert, indem ich diesen Schritten gefolgt bin, aber ausgehend von:

ϕ 1 | A | ϕ 1 = ϕ 1 | B | ϕ 1

und dabei erhalten:

ich ψ 1 | A | ψ 2 ich ψ 2 | A | ψ 1 = ich ψ 1 | B | ψ 2 ich ψ 2 | B | ψ 1

Mein Plan war es, zu versuchen, die beiden Gleichheiten zu kombinieren, um zu versuchen, etwas zu produzieren

ψ 1 | A | ψ 2 = ψ 1 | B | ψ 2

Wie jemand in der Klasse erwähnte, hatte er Glück mit dieser Methode, aber ich bin ratlos, wo ich von hier aus gehen soll, oder ob ich auf dem Weg einen Fehler gemacht habe. Jede Hilfe wäre sehr dankbar, ich habe mir den Kopf zerbrochen und versucht, an etwas anderes zu denken, um es zu versuchen.

Was Sie suchen, heißt Polarisationsidentität in Hilbert-Räumen (Sie müssen die komplexe verwenden).
Ich glaube nicht, dass die Polarisierungsidentität, obwohl verwandt, direkt ausgenutzt werden kann, es sei denn A B ist hermitesch. Ich habe in meiner Antwort einen direkten Beweis geschrieben.
@ValterMoretti In Ihrem Beweis beweisen Sie im Wesentlichen, dass zwei sesquilineare Formen gleich sind, wenn die verwandten quadratischen Formen gleich sind; und das sofort, sobald die Polarisierungsidentität bewiesen ist.
( X , j ) = X | A j ist nicht sequilinear, weil ( j , X ) ( X , j ) ¯ es sei denn A A . Das ist mein Punkt...
Wir haben eine andere Definition von Sesquilinear. Für mich ist Sesquilinear im rechten Argument nur linear, im linken antilinear.
OK. Aber die Polarisierung Identität fordert auch mein Eigentum?
@ValterMoretti Nein, nicht wirklich.
Ich habe versucht, es zu beweisen: Es ist stattdessen notwendig :). Versuchen Sie es selbst. Schon im realen Fall. Durch direkte Inspektion sehen Sie das, wenn ( | ) Ist R bilinear, 4 ( X | j ) = ( X + j | X + j ) ( X j | X j ) es ist äquivalent zu ( X | j ) = ( j | X ) .
@ValterMoretti Die Hermitizität der sesquilinearen Form ist für die Polarisierungsidentität nicht erforderlich. Das sollte leicht durch eine explizite Rechnung bewiesen werden; aber jetzt habe ich leider keine Zeit dazu ;-) Außerdem hat jede hermitische Sesquilinearform eine reale zugehörige quadratische Form, aber im Allgemeinen S ( F , F ) ist komplex; die bei der Überprüfung der Identität berücksichtigt werden sollten.
Ich habe es selbst versucht, du hast Recht. Anders als im realen Fall, wo Symmetrie erforderlich ist, benötigt die Polarisationsidentität keine Hermitizität, sondern nur Sequilinearität ist ausreichend. Die von Ihnen zitierte Wikipedia-Seite geht stattdessen von der Gültigkeit der Hermitizität aus. Es sollte korrigiert werden...
Sie haben Recht, dass Sesquilinearität ausreichend ist. Wenn Sie die explizite Berechnung sehen möchten, habe ich hier ein sehr ähnliches Theorem bewiesen: physical.stackexchange.com/a/691645/326392 .

Antworten (1)

Ja, Ihre Vermutung ist wahr (es besteht keine Notwendigkeit, die adjungierten Operatoren in den Beweis einzubeziehen). In der Tat in einem komplexen Hilbert-Raum H (allgemeiner ein komplexer Vektorraum, der mit einem hermiteschen Skalarprodukt ausgestattet ist) haben wir den folgenden Satz.

Vorschlag . Lassen A , B : D H ein Paar linearer Operatoren sein, die im dichten Unterraum definiert sind D H . A = B dann und nur dann, wenn X | A X = X | B X für alle X D .

Nachweisen. Es genügt, das zu beweisen X | A X = 0 für alle X D impliziert A = 0 . Dazu Ersteinsatz X = j ± z und dann X = j ± ich z in der Identität oben unter Beachtung dessen j | A j = 0 Und z | A z = 0 . Linearität im rechten Eingang und Antilinearität im linken Eingang lassen sich leicht erzeugen j | A z = 0 für alle j , z D . Seit D dicht ist, gibt es eine Sequenz D j N A z . Die Stetigkeit des Skalarprodukts ergibt sich sofort | | A z | | 2 = lim N + j N | A z = 0 für alle z D . Mit anderen Worten A = 0 .

In echten Hilberträumen ist die Aussage falsch. Zum Beispiel im R N , erfüllen antisymmetrische Matrizen X | A X = 0 für jeden X R N , Aber A 0 Im Algemeinen.

Können Sie näher darauf eingehen, wie das bewiesen wird X | A X = 0 für alle X D impliziert A = 0 reicht aus, um das zu beweisen A = B iff X | A X = X | B X für alle X D ? Das ist für mich nicht selbstverständlich. Es ist für mich auch nicht offensichtlich, dass dies für einen verallgemeinerten dichten Unterraum gilt D H Das | X D automatisch impliziert, dass seine Komponenten | j Und | z sind in D sowie.
Bei der ersten Frage einfach überlegen C = A B . Sagt, dass X | C X = 0 ist äquivalent zu X | ( A B ) X = 0 , was durch Linearität äquivalent zu ist X | A X = X | B X . In Bezug auf das zweite Problem müssen Sie das nicht verwenden X D impliziert j Und z tun, aber das, wenn j , z D , Dann j ± ich z D . Dies ist trivialerweise wahr, weil D ist ein Unterraum.