Kraus-Operator-Rang

Alle Quantenoperationen E auf einem System der Hilbert-Raumdimension D kann durch eine höchstens enthaltende Operator-Summendarstellung erzeugt werden D 2 Elemente. Eine weitere Ausdehnung, eine Operation aus dem Weltraum mit Dimension M Raum mit Dimension N hat eine Operatorsummendarstellung in Form von Kraus-Operatoren. Siehe: http://en.wikipedia.org/wiki/Quantum_operation#Kraus_operators

Der Folgebeweis bezieht sich auf eine Übung im Buch von Nielsen und Chuang, Übung 8.10Geben Sie hier die Bildbeschreibung ein

Den ersten Teil zu beweisen ist einfach genug ... W J k = W k J wenn Sie die Definition von erweitern W J k und Verwenden von Eigenschaften von Transponierkonjugierten. Also ist W tatsächlich hermitesch. Dass es höchstens von Rang ist D 2 ist, was ich nicht beweisen kann.

Ich habe auf Wikipedia über die Rangeigenschaften einer Matrix gelesen, und es heißt, dass eine Rangmatrix M als Summe von M Rang-1-Matrizen ausgedrückt werden kann. In diesem Fall müsste ich beweisen, dass die einzelnen Terme in der Summe:

J , k T R ( E J + E k ) | J k |

sind von Rang 1. Da T R ( E J + E k ) ist in der Tat ein Skalar, und | J & k | die Eigenbasis für die Eingabe- und Ausgaberäume sind, kann es solche Terme von d geben | J Und | k bzw. deren Produkt eine Rang-1-Matrix bildet.

Daher gäbe es höchstens d*d solcher Terme, wenn alle Terme T R ( E J + E k ) sind ungleich Null.

Ist das der richtige Beweis? Mache ich irgendwo einen Fehler?

Die Anzahl solcher Begriffe wird auch als Kraus-Rang bezeichnet, wie angegeben in: https://en.wikipedia.org/wiki/Quantum_channel#Pure_channel

Ja, Sie machen einen Fehler: Eine Matrix vom Rang k kann als Summe von k Rang-1-Matrizen ausgedrückt werden (das geht über die Singularwertzerlegung, genau wie Nielsen & Chuang sagen), aber das bedeutet nicht, dass JEDE Zerlegung in Rang- 1 Matrizen hat höchstens k Matrizen. Eher im Gegenteil: Es hat mindestens k Matrizen. Der Beweis (was trivial ist), dass die Summanden in Ihren some den Rang 1 haben, bringt Sie also nicht weiter.

Antworten (2)

Da es immer noch keine Antwort gibt, aber die Frage einige positive Stimmen erhalten hat, lassen Sie mich auf meinen Kommentar eingehen. Das ist mehr Mathematik als Physik, aber trotzdem.

Schreiben J k T R ( E J E ich ) | J k | gibt dir nichts. Dies ist in der Tat eine Rang-1-Zerlegung, aber das Theorem sagt Ihnen nicht, dass JEDE Rang-1-Zerlegung höchstens d^2 Terme hat. Dies wäre wahr, wenn | J war die Eigenbasis von C D - aber es ist nicht. W ist ein M × M Matrix, daher | J ist die Eigenbasis von C M Und M könnte viel größer sein als diese.

Was jedoch stimmt, ist das E J C D × D . Die wichtigste Beobachtung ist, dass höchstens D 2 von diesen E J kann also linear unabhängig sein und dies impliziert das W kann höchstens von Rang sein D 2 . Hier ist ein Beweis (wenn auch nicht so schön):

Es gibt eine Grundlage von C D × D mit D 2 Elemente, nennen Sie es F J , die bezüglich des Spurinnenprodukts orthonormal ist. Nun, seit dem F J bilden eine Basis, für alle E J wir haben:

E J = ich A ich ( J ) F ich A ich ( J ) C J { 1 , , N }

Die E J sind Linearkombinationen der F J . Aber dann können wir die Spalten von W durch neu ausdrücken F ich und erhalten:

tr ( E ich E J ) = k = 1 D 2 A k ( ich ) A k ( J )

Nur per Definition einer Basis D 2 des E ich linear unabhängig sein kann. Ohne Beschränkung der Allgemeinheit nehmen wir die erste an D 2 E ich waren linear unabhängig. Schauen wir uns dann mal die an ( D 2 + 1 ) te Spalte. Seit E D 2 + 1 linear abhängig ist, seine Koeffizienten A k ( D 2 + 1 ) sind Linearkombinationen der anderen A ( J ) , sagen

A k ( D 2 + 1 ) = J = 1 D 2 B J A k ( J )

Aber dann können wir das sehen

tr ( E ich E D 2 + 1 ) = J B J tr ( E ich E J )

daher ist die ganze Spalte eine lineare Kombination der vorherigen Spalten. Alles zusammenfügen, W kann höchstens haben D 2 linear unabhängige Spalten. Dann können wir diagonalisieren W , da es hermitesch ist, und fahren Sie wie angegeben fort.

Ich kann die Begründung für die Bestimmung des maximal möglichen Rangs von W verstehen. Dennoch sehe ich keinen Nutzen darin, W zum Beweis der bestimmten Aussage zu verwenden. Das heißt, warum ist W so konstruiert, wie es ist? Was macht die Einheitsmatrix U bedeutend durch ihre Fähigkeit, W diagonal zu machen? Ich bin etwas verwirrt von den Prämissen, die für dieses Problem vorgeschlagen werden.

Es besteht keine Notwendigkeit, eine orthonormale Basis für den Raum der Operatoren einzuführen. Lassen

| w k J W J k | J = J T R ( E J E k ) | J
bezeichnen die k te Spalte von W . Wie gesagt höchstens D 2 des E J linear unabhängig sein kann. Nehmen wir ohne Verlust der Allgemeinheit an, dass E 1 , , E D 2 sind linear unabhängig. Dann gibt es C k l C wofür E k = l = 1 D 2 C k l E l für alle k > D 2 . Somit,
| w k = J T R ( E J l = 1 D 2 C k l E l ) | J = l = 1 D 2 C k l [ J T R ( E J E l ) | J ] = l = 1 D 2 C k l | w l ,
dh für jeden k > D 2 , Die k te Spalte von W ist eine Linearkombination der ersten D 2 Spalten von W . Die Anzahl der linear unabhängigen Spalten ist daher maximal D 2 , also ist der Rang höchstens D 2 .