Wie quantifizieren wir diese Art von Informationen in der Quantenmechanik?

Gegeben sei ein Quantensystem mit Hilbertraum H . Angenommen, es wird durch den Quantenzustand beschrieben ρ , dh eine Dichtematrix. Wir können die Von-Neumman-Entropie definieren als

S ( ρ ) = Tr ρ Protokoll ρ .

Das lässt sich zeigen S ( ρ ) = 0 dann und nur dann, wenn ρ rein ist, mit anderen Worten, wenn existiert | ψ H so dass

ρ = | ψ ψ | .

Nehmen Sie als nächstes an, dass | ψ ist ein reiner Zustand. Es verschlüsselt offensichtlich einige Informationen über das betreffende System.

Nehmen wir zum Beispiel an, das System sei ein nicht-relativistisches Spin-1/2-Massenteilchen M . In diesem Fall ist ein vollständiger Satz von Zuständen | P , σ die Eigenzustände von Impuls und Spin. Dann

  • Wenn | ψ = | P , σ Wir haben die Information, dass Momentum ist P , Drehung ist σ und Masse ist M .

  • Wenn | ψ = C + | P , 1 / 2 + C | P , 1 / 2 Wir haben Informationen, dass Momentum ist P , diese Masse ist M und wir haben einige Informationen über den Spin, obwohl damit Unsicherheit verbunden ist .

  • Wenn | ψ = F ( P ) | P , σ D 3 P Wir haben die gleiche Argumentation oben. Wir haben Informationen, dass Spin ist σ , Masse ist M und wir haben einige Informationen über Momentum .

Nun, wenn S ( ρ ) quantifiziert die Informationen, die wir unbedingt haben müssten S ( | ψ ψ | ) = 0 . Dennoch scheint es mir falsch zu sagen, dass "Informationen über diesen Zustand gleich Null sind". Wie gesagt, in all diesen obigen Beispielen haben wir zumindest einige Informationen über das System.

Für den Anfang kennen wir in allen Staaten die Masse sicher. Das sind schon Informationen.

Zweitens, wenn P , σ werden durch die Spinorwellenfunktion beschrieben

Ψ ( P ) = ( ψ + ( P ) ψ ( P ) ) ,

Wir haben einige Informationen über P Und σ Enthalten in Ψ ( P ) das sollte mit einem gewissen Maß an Unsicherheit quantifiziert werden.

Insbesondere Ψ ( P ) ich = δ ( P Q ) δ ich J sollte "maximale Information" bedeuten - wir kennen Schwung und Spin . Und wir sollten "minimale Informationen" haben - einen Zustand mit maximaler Unsicherheit dieser Variablen .

Nach alledem scheint es offensichtlich, dass reine Zustände mit Informationen verbunden sind . Die Informationen scheinen mit Observablen verbunden zu sein. Und schließlich scheint es, dass diese Informationen intuitiv durch ein Maß quantifiziert werden sollten, das von „minimaler Information/maximaler Unsicherheit“ bis „maximaler Information/minimaler Unsicherheit“ reicht.

Darüber hinaus scheint die Von-Neumman-Entropie dies nicht zu erfassen, da sie besagt, dass mit einem solchen Zustand null Informationen verbunden sind, was anscheinend nicht der Fall ist.

Wie quantifizieren wir also diese Informationen, die am Ende in einem reinen Zustand enthalten sind?

Gute Frage, denke ich, aber Sie müssen möglicherweise Teile neu anordnen: Überprüfen Sie, dass Entropie = 0 tatsächlich maximale Negentropie ist - es ist das, was Informationen misst.
Aus informationstheoretischer Sicht bedeutet Information Unsicherheit. Für einen reinen Zustand bedeutet von Neumann-Entropie = 0, dass es keine Unsicherheit über seinen Zustand gibt. Dies bedeutet jedoch nicht, dass wir keine Informationen über seinen Zustand extrahieren können. Genau wie in einem klassischen System hat ein Bit mit einem festen Wert 1 keine Information, da es keine Unsicherheit darüber gibt. Aber Sie können immer noch argumentieren, dass wir die Information haben, dass sich das Bit im Zustand 1 befindet. Wir müssen vorsichtig sein, wenn wir das Wort „Information“ verwenden.
Wenn man also von Informationen spricht, spricht man nicht von „Informationen, die wir derzeit haben“, sondern tatsächlich von „Informationen, die verfügbar sind, um durch Experimente gefunden zu werden“? Damit, wenn wir alles wissen, nichts mehr gelernt werden kann und die Information null ist?

Antworten (1)

Reine Zustände tragen tatsächlich maximale Informationen . Tatsächlich sind sie bezüglich einer partiellen Ordnung maximal auf Zustände, die wie folgt definiert sind.

Lassen ρ , ω zwei Zustände sein. Das sagen wir ρ ω falls vorhanden 0 λ 1 so dass ρ λ ω , Wo ist die größere oder gleiche Beziehung auf Operatoren (dh A 0 iff ψ , A ψ 0 für alle ψ ).

Jetzt, ω ist ein Extremal oder reiner Zustand genau dann, wenn er maximal bzgl , in dem Sinne, dass ω ϖ iff ϖ = λ ω , für einige 0 λ 1 .

Durch diese Definition ist es nicht schwer zu verstehen, warum reine Zustände unter den Zuständen maximale Informationen über das System tragen. In der Tat, lassen Sie ρ Mischzustand sein. Dann gibt es zwei Zustände ϖ 1 Und ϖ 2 , Und 0 < λ < 1 so dass

ρ = λ ϖ 1 + ( 1 λ ) ϖ 2 .
Tatsächlich gibt es eine (möglicherweise unendliche) Menge reiner Zustände Ω = { ω ich , ich ICH } , und Koeffizienten { 0 < λ ich < 1 , ich ICH } so dass
ρ = ich ICH λ ich ω ich .

Daher werden die Informationen durch den gemischten Zustand getragen ρ (seine Beschreibung des Systems) ist vollständig in den Informationen kodiert, die von dem Gerät getragen werden Ω von reinen Zuständen, und im Allgemeinen wird es von anderen Zuständen kodiert . Andererseits trägt ein reiner Zustand maximale Informationen, da die Informationen, die sie tragen, nicht in denen eines anderen Zustands kodiert werden können . Der Satz P von reinen Zuständen erschöpft daher (durch konvexe Kombinationen) alle möglichen Konfigurationen des Systems und enthält somit gewissermaßen alles mögliche Wissen über das System.