Gibt es bei der Quantenmessung Informationserhaltung?

Betrachten Sie das folgende Experiment. Ich drehe - 1 2 Teilchen und mache a σ x Messung (messen Sie den Spin in der x Richtung), dann machen Sie a σ j Messung, dann noch eine σ x dann eins σ j , und so weiter für n Messungen. Der Formalismus der Quantenmechanik sagt uns, dass die Ergebnisse dieser Messungen zufällig und unabhängig sind. Ich habe jetzt eine Kette von völlig zufälligen Bits der Länge n . Kurz gesagt, meine Frage ist, woher kommen die Informationen in dieser Zeichenfolge?

Die offensichtliche Antwort lautet: "Quantenmessungen sind grundsätzlich indeterministisch und es ist einfach ein physikalisches Gesetz, dass Sie dabei eine zufällige Zeichenfolge erhalten". Das Problem, das ich dabei habe, ist, dass gezeigt werden kann, dass die einheitliche Evolution von Quantensystemen die von Neumann-Entropie bewahrt, genauso wie die Hamilton-Evolution eines klassischen Systems die Shannon-Entropie bewahrt. Im klassischen Fall kann dies so interpretiert werden, dass „kein Prozess Informationen auf mikroskopischer Ebene erzeugen oder zerstören kann“. Es scheint, als sollte das Gleiche auch für den Quantenfall gelten, aber dies scheint schwer mit der Existenz von "echter" Zufälligkeit in der Quantenmessung in Einklang zu bringen, die anscheinend Informationen erzeugt.

Es ist klar, dass es einige Interpretationen gibt, für die dies kein Problem darstellt. Insbesondere für eine No-Collaps-Interpretation endet das Universum einfach in einer Überlagerung von 2 n Zustände, die jeweils einen Beobachter enthalten, der eine andere Ausgabezeichenfolge betrachtet.

Aber ich bin kein großer Fan von No-Collapse-Interpretationen, also frage ich mich, wie andere Quanteninterpretationen damit umgehen. Insbesondere in der „Standard“-Interpretation (womit ich diejenige meine, an der die Leute festhalten, wenn sie sagen, dass die Quantenmechanik keine Interpretation benötigt), wie wird die Unbestimmtheit der Messung mit der Erhaltung der von Neumann-Entropie in Einklang gebracht? Gibt es eine andere Interpretation als No-Collapse, die es besonders gut lösen kann?

Nachtrag

Es erscheint mir sinnvoll, meine derzeitigen Überlegungen dazu zusammenzufassen und einen weiteren Versuch zu unternehmen, klarzustellen, was ich wirklich verlange.

Ich möchte mit dem klassischen Fall beginnen, denn nur dann kann ich deutlich machen, wo die Analogie zu versagen scheint. Betrachten wir ein klassisches System, das eines von übernehmen kann n diskrete Zustände (Mikrozustände). Da ich zunächst nicht weiß, in welchem ​​Zustand sich das System befindet, modelliere ich das System mit einer Wahrscheinlichkeitsverteilung.

Das System entwickelt sich im Laufe der Zeit. Wir modellieren dies, indem wir den Vektor nehmen p von Wahrscheinlichkeiten und Multiplikation mit einer Matrix T bei jedem Zeitschritt, d.h p t + 1 = T p t . Das diskrete Analogon der Hamiltonschen Dynamik erweist sich als die Annahme, dass T ist eine Permutationsmatrix, dh sie hat in jeder Zeile und Spalte genau eine 1, und alle anderen Einträge sind 0. (Beachten Sie, dass Permutationsmatrizen eine Teilmenge von unitären Matrizen sind.) Es stellt sich heraus, dass unter dieser Annahme die Gibbs-Entropie (auch bekannt als Shannon-Entropie) H ( p ) ändert sich nicht mit der Zeit.

(Nebenbei sei noch erwähnt, dass statt Repräsentieren p als Vektor könnte ich es als Diagonalmatrix darstellen P , mit P ich ich = p ich . Es sieht dann sehr nach dem Dichtematrix-Formalismus aus, mit P die Rolle spielen ρ und T was gleichbedeutend mit einheitlicher Evolution ist.)

Nehmen wir nun an, ich führe eine Messung des Systems durch. Wir gehen davon aus, dass ich das System dabei nicht störe. Nehmen wir zum Beispiel an, das System hat zwei Zustände, und ich habe zunächst keine Ahnung, in welchem ​​von ihnen sich das System befindet, also p = ( 1 2 , 1 2 ) . Nach meiner Messung weiß ich, in welchem ​​Zustand sich das System befindet, also p wird beides werden ( 1 , 0 ) oder ( 0 , 1 ) mit gleicher Wahrscheinlichkeit. Ich habe ein bisschen Information über das System erhalten, und H ( p ) hat sich um ein bisschen reduziert. Im klassischen Fall werden diese immer gleich sein, es sei denn, das System interagiert mit einem anderen System, dessen Zustand ich nicht genau kenne (wie zB einem Wärmebad).

Unter diesem Gesichtspunkt ist die Änderung der von Neumann-Entropie bei einer Quantenmessung nicht überraschend. Wenn die Entropie nur einen Mangel an Informationen über ein System darstellt, sollte sie natürlich abnehmen, wenn wir Informationen erhalten. In den Kommentaren unten, wo ich mich auf Interpretationen des "subjektiven Zusammenbruchs" beziehe, meine ich Interpretationen, die versuchen, den "Zusammenbruch" einer Wellenfunktion als analog zum oben beschriebenen "Zusammenbruch" der klassischen Wahrscheinlichkeitsverteilung und der von Neumann-Entropie zu interpretieren als analog zur Gibbs-Entropie. Diese werden auch „ ψ -epistemische" Interpretationen.

Aber es gibt ein Problem, nämlich dieses: In dem zu Beginn dieser Frage beschriebenen Experiment erhalte ich mit jeder Messung ein Bit an Informationen, aber die von Neumann-Entropie bleibt konstant (bei Null), anstatt um ein Bit abzunehmen jedes Mal. Im klassischen Fall ist „die Gesamtinformation, die ich über das System gewonnen habe“ + „Unsicherheit, die ich über das System habe“ konstant, während sie im Quantenfall zunehmen kann. Das ist beunruhigend, und ich nehme an, was ich wirklich wissen möchte, ist, ob es eine bekannte Interpretation gibt, in der diese "zusätzlichen" Informationen irgendwie berücksichtigt werden (z. B. könnten sie von thermischen Freiheitsgraden im Messgerät stammen) oder in welcher es lässt sich zeigen, dass etwas anderes als die von Neumann-Entropie analog zur Gibbs-Entropie eine Rolle spielt.

Antworten (3)

Obwohl Ihre Aussage das

Es kann gezeigt werden, dass die einheitliche Evolution von Quantensystemen die von Neumann-Entropie erhält,

ist in der Tat wahr, in der Quantentheorie und insbesondere in jeder "Kollaps"-Interpretation wird die Evolution eines Quantensystems durch eine solche einheitliche Evolution bestimmt, außer wenn das System gemessen wird; Zu diesen Zeiten erfährt das System einen nicht einheitlichen projektiven Kollaps, der die von Neumann-Entropie nicht erhält und daher frei ist, den Informationsgehalt der Welt zu manipulieren. (Ich bin mir nicht sicher, ob man argumentieren kann, dass eine projektive Messung Informationen entweder erzeugt oder zerstört. Ich denke jedoch, dass sie die Welt sicherlich entropischer (oder zumindest nicht weniger) macht: Wenn wir zusammenbrechen, ohne die Antwort zu kennen, gibt es eine mehr über die Welt zu erfahren.)

Danke für die Antwort. Dies ist natürlich ein gültiger Weg. Aber es braucht noch etwas mehr, um uns genau zu sagen, wann solche Zusammenbrüche stattfinden, sonst bekommt man Probleme mit Schrödingers Katze, Wigners Freund usw. Ernster aber, wenn ein Teil eines Quantensystems mit einem anderen so interagiert wie für Um als Maß zu gelten, sollte sich die von Neumann-Entropie spontan ändern - und das beobachten wir nie. Deshalb denke ich, dass dieses Argument ein ernsthaftes Problem für objektive Zusammenbruchsinterpretationen ist. (Subjektive Zusammenbrüche sind jedoch in Ordnung.)
Ich denke, Ihre Frage wird dann genau das (noch sehr offene!) Messproblem. Wann genau soll/sollte die einheitliche Evolution der projektiven Messung weichen? Wie genau soll man die Kopenhagener Deutungsgrenze zwischen mikroskopischen und makroskopischen Objekten ziehen? Kann man das überhaupt zeichnen? Aus meiner Sicht sind objektive Kollaps-Interpretationen bei weitem nicht in der Lage, diese Fragen zu beantworten, und subjektive Kollaps-Interpretationen (dh viele Welten?) verstecken sie wohl nur. (Fortsetzung)
Ich sage nicht, dass dies ein befriedigender Zustand ist, aber ich glaube nicht, dass der Widerspruch, den Sie in Ihrem ursprünglichen Beitrag beobachten, wirklich existiert. Wir beobachten wirklich diese von-Neumann-Entropieänderungen: bestanden | + = σ x | + durch einen Z-polarisierten SG-Magneten und Sie erhalten (nachdem Sie die Position verfolgt haben, dh wenn Sie das Messergebnis nicht betrachten) einen gemischten Zustand ρ = 1 2 ( | 0 0 | + | 1 1 | ) mit positiver von Neumann-Entropie.
Wir beobachten vN-Entropieänderungen, aber nur , wenn wir Messungen durchführen. (Die von Ihnen beschriebene Situation ist etwas anders, da ein Bit an Informationen ignoriert wird, um ein Bit an Entropie zu erzeugen - das ist in Ordnung, da das Ignorieren von Informationen in einem klassischen System auch Entropie erzeugt.) Wenn objektive Zusammenbrüche spontan auftreten würden nicht -Messszenarien würden wir spontane Abnahmen der vN-Entropie in isolierten Systemen beobachten (obwohl sie vielleicht eine bestimmte Größe und / oder Komplexität haben müssten), aber wir sehen dies nicht.
Ja, ich stimme zu, dass dies genau das Messproblem ist. (Das ist mir jetzt klarer als beim Schreiben der Frage.) Ich denke, ich war nur daran interessiert, wie die verschiedenen Interpretationen von QM versuchen, mit dem Messproblem umzugehen, und ob eine solche Betrachtung irgendein Licht auf ihre Strategien wirft lebensfähig sind.
Diese Diskussion war etwas hilfreich, also habe ich Ihnen das Kopfgeld zugesprochen.
warum die abwertungen? Bitte kommentieren...
Ich weiß nicht, wer dich herabgestimmt hat (ich war es nicht). Aber nachdem ich Ihre Antwort noch einmal gelesen habe, verstehe ich jetzt, was Sie mit spontanen Zusammenbrüchen meinen, die die vN-Entropie erhöhen - Sie sagen, dass ein spontaner Zusammenbruch einer Messung entsprechen würde, ohne die Antwort zu betrachten. Es ist eine ziemlich interessante Beobachtung, und ich bin mir nicht sicher, warum ich sie nicht schon früher bekommen habe.

Zwei Dinge:

  1. Die Quantenversion des Satzes von Louiville ist die Tatsache, dass die Zeitentwicklung ein einheitlicher Operator ist, dh Amplituden erhält.

  2. Messung ist nicht mysteriös. Das konzeptionelle Problem ist die Frage, was klassisch ist. Messungen sind, wie alle Wechselwirkungen, Quanten – Sie behandeln das System als Quanten, die Messapparatur als Quanten und lassen sie interagieren. Das Gesamtsystem + Apparat entwickelt sich einheitlich. Nun, der Messapparat nimmt sich nicht in einer Überlagerung wahr – das wäre logischer Unsinn, also wird aus der Sicht des Apparats das System auf einen Zustand „kollabiert“, der mit dem Zustand des Apparats korreliert. Prozedural modellieren wir dies, indem wir die Freiheitsgrade im Apparat nachzeichnen, und erhalten eine Dichtematrix für das System.

Ich werde Genneth unterstützen und meine Antwort nur als Kommentar posten. ... Quantenmessungen sind grundsätzlich indeterministisch und es ist einfach ein physikalisches Gesetz, dass man dabei eine zufällige Zeichenfolge erhält. Der Satz von Liouville gilt nur für Modelle der klassischen statistischen Physik, siehe en.wikipedia.org/wiki/Liouville%27s_theorem_(Hamiltonian) ... Unsere Welt ist nicht klassisch, also muss sie dem Satz von Liouville nicht gehorchen. Die Quantenerweiterung sagt nur, dass die Evolution einheitlich ist, dh die Gesamtwahrscheinlichkeit ist 1 für jeden Anfangszustand, aber nicht, dass Zufälligkeit verboten ist.
@genneth würdest du sagen, dass sich dein Punkt 2 von der Befürwortung einer No-Collaps-Interpretation unterscheidet? Es klingt für mich so, als ob Sie sagen, das Gesamtsystem + Apparat (+ Beobachter) befindet sich in einer Überlagerung von Zuständen, in denen unterschiedliche Messergebnisse aufgetreten sind - die Wellenfunktion kollabiert also nie, sondern nur scheinbar, weil die überlagerten Beobachter unabhängig von einem sind Ein weiterer. Ich kann sehr deutlich sehen, dass das, was ich beschrieben habe, unter einer solchen Interpretation unproblematisch ist, aber ich habe gefragt, wie andere Interpretationen damit umgehen.
@LubošMotl Ich verstehe das Quantenanalog von Liouvilles Theorem. Es impliziert, dass die von Neumann-Entropie genauso erhalten bleibt, wie der klassische Satz von Liouville die Erhaltung der Shannon-Entropie impliziert. Das ist es, was ich nur schwer mit dem Vorhandensein von Stochastik in Einklang bringen kann.
Ich habe die Frage bearbeitet, um diesen Punkt klarer zu machen. (Ich hätte die einheitliche Evolution nicht als "Liouvilles Theorem" bezeichnen sollen - ich habe nur die mentale Angewohnheit, sie als dasselbe zu betrachten.)
Jede Interpretation sieht dies in derselben Linie wie die Durchführung einer Messung. Wenn Sie glauben, dass Ihre Seele den Zustand zusammenbricht, müssen Sie akzeptieren, dass Informationen, die mit Ihrer Seele korrelieren, auch eine nicht einheitliche Entwicklung haben (Informationen werden nicht konserviert, Sie können lernen und Informationen verlieren). Wenn Sie glauben, dass Sie in eine Welt der Viel-Welten-Interpretation eintreten, müssen Sie akzeptieren, dass Informationen nicht in der von Ihnen erfahrenen Weltlinie aufbewahrt werden. Wenn die Messung ein besonderes Loch Ihrer Interpretation ist, müssen Sie akzeptieren, dass Informationen in gewissem Sinne nicht erhalten bleiben.
Ansonsten behandeln Sie die Quantenmechanik mit einer universellen Wellenfunktion.
Eine Überlagerung von Apparaten impliziert mehrere Apparate und somit mehrere Bewusstseine, wenn wir davon ausgehen, dass jeder Apparat einem bewussten Wesen entspricht.
Woher kommt dann das Wahrscheinlichkeits-/Zufallselement? Es gibt keine stochastischen Terme in der Evolution, wie kann also ein zufälliges/nicht deterministisches Ergebnis der Messung von dem wahrgenommen werden, der das Experiment durchführt (und Teil des größeren Quantensystems ist)? Was bringt diesen Nichtdeterminismus mit der deterministischen Evolution in Einklang?

In der "Standard"-Interpretation findet die einheitliche Evolution nur statt, wenn es keine Beobachtung gibt.

Die Anwesenheit des Beobachters macht die Evolution uneinheitlich, so dass nicht-deterministische Prozesse auftreten können.

Dies macht jede Interpretation mit Kollaps gegenüber verschiedenen Personen unsymmetrisch. Bestimmte herausragende Personen (der Beobachter) können den Zusammenbruch bewirken und andere nicht. Das bedeutet, dass es auf der Erde eine lebende Person mit besonderen physikalischen Eigenschaften gibt, die Fähigkeit, die Wellenfunktion zum Kollabieren zu bringen. Wer diese Person ist, kann mit physikalischen Mitteln bestimmt werden (obwohl es ziemlich schwierig ist, weil eine gute Isolierung erforderlich ist, die derzeit bei den Temperaturen, bei denen Menschen leben können, unmöglich ist).

Jede Interpretation, die einen beobachterunabhängigen ("objektiven") Kollaps, Gleichheit aller Menschen und so weiter postuliert, ist schlichtweg falsch.