Welche Beziehung besteht zwischen der Definition der Unschärferelation unter Verwendung von Standardabweichungen und der Verwendung von ΔxΔx\Delta x und ΔpΔp\Delta p?

Ich habe also zwei verschiedene Erklärungen der Unschärferelation gehört, die beide für sich genommen sinnvoll sind, aber es fällt mir schwer, herauszufinden, wie sie miteinander verbunden sind. Erstens ist die Unschärferelation wirklich eine statistische Regel. Grundsätzlich können wir die Position eines Teilchens zu jedem beliebigen Zeitpunkt messen, so genau unsere Geräte es zulassen. Dasselbe mit dem Schwung. Wenn wir jedoch mehrere Messungen durchführen, wird es immer eine gewisse Variation in beiden Datensätzen geben und das Produkt der Standardabweichungen wird immer größer oder gleich sein H / 2 .

Die andere Erklärung, die ich gehört habe, erklärt es in Bezug auf die Eigenschaften von Wellen. Im Grunde ist ein Teilchen wirklich nur die Überlagerung vieler verschiedener Wellen im relevanten Feld. Eine Periodenwelle hat keine genau definierte Position oder Impuls, also müssen wir viele verschiedene Wellen mit unterschiedlichen Impulsen zusammenzählen, um genügend destruktive Interferenz zu erzeugen, dass die meisten Spitzen aufheben und wir ein Wellenpaket mit a erhalten ziemlich gut definierte Position, obwohl es immer einige Variationen geben wird. Ein ähnlicher Prozess ist für das Momentum erforderlich. Dies ist die intuitivste Erklärung der Unschärferelation, die ich je gehört habe, aber wie hängt sie mit der statistischen Definition zusammen? Ich weiß, es hat wasdamit zu tun, dass die Wellenfunktion eine Wahrscheinlichkeitsfunktion ist (oder genauer gesagt, ihre quadrierte Größe ist die Wahrscheinlichkeitsdichtefunktion), aber ich bin mir nicht sicher, was genau.

Ich denke, ein Teil dessen, was mich verwirrt hat, ist, dass ich nicht verstehe, wie es möglich ist, eine Reihe von Wellen zu addieren, um (mangels eines besseren Begriffs) ein Teilchen mit einer besser definierten Position / einem besser definierten Impuls zu "erzeugen". Die Mathematik macht Sinn, aber wie passt sie zu der Art und Weise, wie wir Messungen tatsächlich durchführen? Ich brauche nicht die Details, wie bestimmte Messgeräte funktionieren, sondern mehr den Begriff der Messung in der Quantenmechanik und wie es der Idee entspricht, die Überlagerung vieler Wellen zu einem Wellenpaket zu erzeugen, und was das mit dem Nehmen zu tun hat Mehrfachmessungen und Schwankungen in den Daten.

Ich habe das Gefühl, ich fange an, zumindest ein bisschen zu verstehen, wie die Quantenmechanik funktioniert (ich bin seit Jahren davon fasziniert), aber ich bin ziemlich verwirrt darüber. Jede Hilfe wird sehr geschätzt.

Antworten (2)

Du hast deine Frage mehr oder weniger selbst beantwortet. Die Welleneigenschaften werden durch eine Wellenfunktion beschrieben, die von den dynamischen Gleichungen des untersuchten Systems bestimmt wird, und die statistischen Eigenschaften erscheinen, wenn Sie Messungen dieser Wellenfunktion durchführen. Solche Messungen werden die Wellenfunktion zufällig abtasten, so dass der quadrierte Modul der Wellenfunktion die Wahrscheinlichkeitsdichte für die Messergebnisse ergibt. Damit wird die Unschärferelation von beiden beschrieben.

Die Wellenfunktion kann entweder im "Orts"-Raum als Funktion von Ortskoordinaten oder im Fourier-Bereich als Funktion der Wellenvektoren dargestellt werden. Über (inverse) Fourier-Transformationen kann man von einem zum anderen wechseln. Auch in der klassischen Optik ( Fourier-Optik ) sieht man bereits, wie sich ein optisches Feld als Überlagerung ebener Wellen darstellen lässt. Das führt dann zum Verständnis der Unschärferelation für die Wellenfunktion.

Messungen der Wellenfunktionen beinhalten immer Wechselwirkungen zwischen der Wellenfunktion und dem Messgerät. Eine solche Wechselwirkung beinhaltet eine Übertragung von Energie und Impuls, die von Plancks (und de Broglies) Beziehung zwischen Frequenz und Energie (Wellenzahl und Impuls) bestimmt wird, was die Plank-Konstante einbringt. Daher finden wir die Plancksche Konstante in der Unschärferelation.

Ein einleitender Punkt sollte klargestellt werden, bevor Unsicherheitsbeziehungen diskutiert werden. Nach der Quantenmechanik ist ein Teilchen niemals eine Welle oder eine Überlagerung von Wellen . Klassische Wellen haben nichts mit einzelnen Quantenteilchen zu tun. Es besteht eine Beziehung zu Wellen, aber sie ist viel subtiler: Wellen können verwendet werden, um die Wahrscheinlichkeitsverteilung von beobachtbaren Größen zu erhalten. Es gibt einen großen Unterschied zu der Aussage, dass ein Teilchen eine Welle ist. Wenn dies wahr wäre, wäre es möglich, beliebig kleine Mengen von beliebigen Observablen wie Ladung, Spin usw. zu erfassen, während wir experimentell wissen, dass diese Größen nur wohldefinierte Werte haben können.

Der Inhalt des Unsicherheitsprinzips (UP) ist scheinbar einfach. Dennoch erfuhr sie nach ihrer stark von Bohrs Komplementärprinzip beeinflussten Aussage durch Werner Heisenberg nach Robertsons Herleitung einer allgemeinen Ungleichung für das Produkt der Varianzen der statistischen Verteilungen der Werte zweier nichtkommutierender Operatoren eine wichtige Mutation. Die Koexistenz der ursprünglichen Heisenbergschen und statistischen Interpretationen verursacht immer noch konzeptionelle Probleme und Missverständnisse beim Verständnis von UP.

Nach Robertsons Arbeit werden UP-Beziehungen als Aussage über die Verteilung der möglichen Werte zweier nicht-kommutierender Observablen dargestellt, wenn sie mit beliebig hoher Genauigkeit in einem gegebenen Quantenzustand gemessen werden. Von experimentellen Störeinflüssen wird also keine Rede sein und auch der Beobachtereffekt spielt eine untergeordnete Rolle. Außerdem gibt es keinen Hinweis auf wellenartige Eigenschaften einzelner Partikel . Tatsächlich impliziert die statistische Interpretation von UP nur, dass ein Ensemble von Quantensystemen in einem bestimmten Zustand präpariert wurde | 0 , unabhängige Messungen von Observablen, repräsentiert durch Operatoren A Und B würde bedeuten, dass die Verteilung der Messungen von A Und B sollte der Ungleichheit unterliegen

σ A 2 σ B 2 | 1 2 ich 0 [ A , B ] 0 | 2 .

Als solches würde das UP etwas ganz anderes sagen als die ursprünglichen Ideen, die in der Analyse von Heisenbergs Mikroskop enthalten waren. Leider wird dieser Punkt in Diskussionen über UP oft nicht deutlich gemacht.

Der gegenwärtige Standpunkt zu Heisenbergs Formulierung ist, dass es ein Versuch war, ein anderes Problem anzusprechen. was einen gemeinsamen Ursprung in der Nicht-Kommutierung einiger Operatorpaare hat, die Observablen darstellen, aber nicht mit Robertsons statistischem Ergebnis übereinstimmt.

Dieser letzte Punkt ist in den letzten paar Jahrzehnten durch ein Wiedererwachen des Interesses für den physikalischen Inhalt von UP in Bezug auf das Problem der (fast) gleichzeitigen Messung von nicht kommutierenden Observablen recht deutlich geworden.

In der Tat impliziert das Nicht-Pendeln zweier Bediener gemäß den Grundpostulaten von QM, dass es nicht möglich ist, die beiden Größen gleichzeitig zu messen (also etwas ganz anderes als die nicht zusammenhängende Menge von Messungen der statistischen Analyse von UP). Der Grund dafür ist, dass eines der grundlegenden Postulate der QM besagt, dass die Wirkung einer Messung einer Größe A darin besteht, das Quantensystem in einen der Eigenzustände des entsprechenden Operators zu bringen. Allerdings haben zwei nicht kommutierende Operatoren keinen Satz gemeinsamer Eigenvektoren, dann die theoretische Unmöglichkeit einer gleichzeitigen Messung.

In den letzten Jahren hat man begonnen, eine solche Unmöglichkeit quantitativ zu analysieren, indem man sich die Frage stellte, wie gut auf theoretischer Basis eine gemeinsame Messung zweier nicht-kommutierender Observablen sein könnte. Siehe zum Beispiel den Artikel von Cyril Branciard über PNAS und die darin enthaltenen Referenzen.

Unter einem solchen neuen Gesichtspunkt ist es möglich, die ursprüngliche Formulierung von Heisenberg in halbquantitativer Form wiederherzustellen, obwohl der genaue Wert der "Unsicherheit" etwas anders sein kann.