1983 veröffentlichten Leggett und Caldeira eine Arbeit (siehe auch hier ), die die Entwicklung der Dichtematrix in einem dissipativen System zeigt. Folgearbeiten von Zurek und anderen zeigen die Relevanz für die Lösung des Messproblems.
Trotzdem scheinen mein Dozent für Quanteninformation und die Wissenschaftsgemeinschaft zu glauben, dass das Messproblem ein ungelöstes Rätsel ist. Andere Leute bestreiten, dass das Problem überhaupt existiert hat.
In diesem Sinne: Warum wird nicht allgemein akzeptiert, dass Leggett und Caldeira das Messproblem gelöst haben?
Zur Verdeutlichung: Mit Messproblem meine ich die Frage, dass es zwei Entwicklungen der Wellenfunktion gibt: eine kontinuierliche (Schrödinger-Gleichung) und eine diskontinuierliche (Messung). Die Standarddekohärenz sagt nur, dass wir in der Messbasis arbeiten müssen und umgeht damit das Problem, wie die Messung tatsächlich abläuft, indem sie sie ignoriert. Im Rahmen von Leggett-Caldeira-Zurek verschwindet die diskontinuierliche Änderung einfach. Oder doch?
Wie ich in den Kommentaren feststellte, beantwortet der Beitrag von Arnold Neumaier als Antwort auf diese Frage auch meine. Insbesondere die von ihm verlinkten Papiere (arXiv papers cond-mat/0102428 und cond-mat/0203460 ). Meiner Meinung nach sind die beiden Arbeiten im Wesentlichen eine Fortsetzung dessen, was Leggett und Caldeira gezeigt haben (dass die Dichtematrix diagonal wird, wenn sie an bestimmte statistische Ensembles gekoppelt wird). Nämlich Nieuwenhuizen et al. demonstrieren Sie durch analytisches Lösen eines repräsentativen Systems, dass der vollständige Messvorgang (oder „Zusammenbruch der Wellenfunktion“) als eine solche statistische Kopplung angesehen werden kann. Vom Abstract zum ersten Paper:
Es wird ein Modell der Quantenmessung vorgeschlagen, das darauf abzielt, statistisch-mechanische Aspekte dieses Phänomens ausgehend von einer rein Hamiltonschen Formulierung zu beschreiben. Die makroskopische Messapparatur ist als ideales Bose-Gas modelliert, dessen Ordnungsparameter, also die Amplitude des Kondensats, die Zeigervariable ist. Es wird gezeigt, dass die Eigenschaften der Irreversibilität und Ergodizitätsbrechung, die dem Modellapparat inhärent sind, das Auftreten eindeutiger Messergebnisse sicherstellen und eine dynamische Realisierung der Reduktion oder des Zusammenbruchs der Wellenfunktion ermöglichen. Der Messvorgang erfolgt in zwei Schritten: Zunächst erfolgt die Reduzierung des Zustands des getesteten Systems über eine Zeit der Ordnung ℏ/(TN1/4), wobei T die Temperatur des Apparats und N die Anzahl davon ist Freiheitsgrade. Dieser Dekohärenzprozess wird durch die Apparat-System-Interaktion gesteuert. Im zweiten Schritt werden klassische Korrelationen zwischen der Apparatur und dem getesteten System über die viel längere Zeitskala der Äquilibrierung der Apparatur hergestellt. Der Einfluss der Parameter des Modells auf die Nichtidealität der Messung wird diskutiert. Schrödinger-Kätzchen, EPR-Setups und Informationsübertragung werden analysiert.
Für mich beantwortet dies, was ich in meiner Frage erreichen wollte (obwohl ich nicht wirklich formulieren konnte): dass es nicht ausreicht, zu behaupten, dass ein statistischer Prozess "den Job macht", um die Wellenfunktion zu kollabieren, es gibt nicht triviale Merkmale des Einsturzes, die angemessen erklärt und modelliert werden müssen. In den beiden Arbeiten erfolgt dies für analytisch auflösbare Systeme.
David z
XXTT
Wolpertinger
ACuriousMind
Wolpertinger
Martin
David z
Wolpertinger