Wir alle lernen, dass Quantenzustände normalisiert werden müssen, da sie mit Wahrscheinlichkeiten verbunden sind, die sich zu eins summieren müssen. Ich würde jedoch gerne wissen, ob Sie andere triftige Gründe haben, um diese Normalisierung zu rechtfertigen. Haben Sie Beispiele, in denen nicht normalisierte Zustände zu paradoxen Situationen führen, mit Ausnahme von Wahrscheinlichkeiten größer als eins? Ein Szenario könnte der Fall sein, dass bei nichtlinearen Schrödinger-Gleichungen (z. B. Gross-Pitaevskii-Gleichung) nicht normierte Wellenfunktionen deutlich zu unterschiedlichen Ergebnissen führen.
Es gibt keinen besonderen Grund, einen Quantenzustand zu normalisieren, wenn Sie nur, sagen wir, einen Erwartungswert einer Observablen definieren , als
Das wird tatsächlich oft gemacht. Es ist nur eine Vereinfachung und daher eine sinnvolle Konvention .
Auch die Schrödinger-Gleichung ist in der Variablen linear , also wenn wir als Anfangswert nehmen , mit , die Lösung wird ebenfalls nur mit multipliziert und physisch ändert sich nichts.
Um etwas über nichtlineare Gleichungen wie die Gross-Pitaevskii-Gleichung zu sagen, ist es richtig, dass Sie den Wechselwirkungsterm in dieser Gleichung um einen Faktor von korrigieren müssten um für die unterschiedliche Normalisierung zu sorgen.
Haben Sie Beispiele, in denen nicht normalisierte Zustände zu paradoxen Situationen führen, mit Ausnahme von Wahrscheinlichkeiten größer als eins?
Ich nicht, aber vielleicht hilft das Folgende.
Wenn nicht normalisiert ist, aber normalisierbar ist, gibt es eigentlich kein Problem - alle Funktionen von kann geändert werden, um die fehlende Normalisierung zu berücksichtigen - normalisieren Sie einfach in der Funktionsformel.
Wie auch immer, wenn ist für einige Regionen nicht normalisierbar , bedeutet dies, dass die Born-Regel nicht verwendet werden kann
Andererseits, wenn wir so etwas wie die Dirac-Delta-Verteilung haben
Stellen Sie sich ein klassisches Streuproblem vor: Sie projizieren beispielsweise N Teilchen pro Sekunde auf ein Ziel und zählen die Anzahl der Teilchen, die in einem Raumwinkel gestreut werden : also das Verhältnis ist immer kleiner als 1. An ein Teilchen gemeldet, ist es seine Wahrscheinlichkeit, darin gestreut zu werden .
Nun beobachtet man in der QM Überlagerungen von Zuständen gestreuter Teilchen. Es impliziert Linearität ihrer Gleichung, eine Art Wellengleichung. Die Lösung der Wellengleichung muss normiert werden, um den berechneten Wert zu erhalten ohne Zweideutigkeit. Der Rest ist ähnlich wie im klassischen Fall: Für ein Teilchen hat man die entsprechende Wahrscheinlichkeit, aber die Bewegungsgleichung muss Überlagerungen von Amplituden (Lösungen) zulassen.
Die dritte Sache ist, dass wir immer viele Teilchen brauchen, um eine zuverlässige Statistik und bestimmte Urteile zu haben, also zählen wir in Wirklichkeit die Anzahl der Teilchen (pro Sekunde oder die Gesamtzahl, was auch immer). Somit ist die Wahrscheinlichkeit nur ein Teil des Gesamtbildes, was impliziert, dass viele, viele Teilchen beteiligt sind, um alle Ecken des wellenförmigen Bildes abzudecken. Weder in der klassischen noch in der Quantenphysik ist ein Ein-Teilchen-"Experiment" ausreichend.
Jakob1729