„Zufälligkeit“ versus „Unsicherheit“

Der hoch bewertete PhysicsSE-Mitarbeiter @ CuriousOne macht regelmäßig die folgende Behauptung über die Quantenmechanik (z. B. hier ):

In der Quantenmechanik gibt es keinen Zufall, es gibt nur Ungewissheit.

Ich möchte wissen, was das bedeuten soll.

Ich glaube du hast falsch zitiert?
Eine Quelle kann ein Photon in eine zufällige Richtung emittieren, aber die Energiewende und die isotrope Natur werden deutlicher.
Das „keine Zufälligkeit“ bedeutet vermutlich, dass er durch Dekohärenz an viele Welten glaubt. Ihren Beiträgen nach zu urteilen, wissen Sie das bereits – suchen Sie stattdessen nach einer Verteidigung vieler Welten? Oder was er konkret davon hält? Wenn es letzteres ist, könntest du ihn einfach ansprechen...
Wenn Sie einen zufälligen/probabilistischen Prozess haben, kann seine Dynamik nicht umgekehrt werden. Ein quantenmechanischer Prozess, zB ein Spinsystem, kann rückgängig gemacht werden, solange man daran keine Messung durchführt. Schauen Sie sich Spinechos an und vergleichen Sie das mit den dynamischen Eigenschaften echter Wahrscheinlichkeitssysteme. Es ist ein Unterschied zwischen Tag und Nacht.
Diese Frage bezieht sich auf das Problem der Nichtlokalität / "spukhaften Fernwirkung", das von einer langen Reihe von Physikern untersucht wurde, z. B. Einstein, Bohm, Bell usw.

Antworten (2)

In der Quantenmechanik gibt es keinen Zufall, es gibt nur Ungewissheit. , wie gesagt, wer auch immer es gesagt haben mag.

Mathematische Definition von Zufälligkeit :

Die Bereiche Mathematik, Wahrscheinlichkeit und Statistik verwenden formale Definitionen der Zufälligkeit. In der Statistik ist eine Zufallsvariable eine Zuordnung eines Zahlenwerts zu jedem möglichen Ergebnis eines Ereignisraums. Diese Zuordnung erleichtert die Identifizierung und die Berechnung von Wahrscheinlichkeiten der Ereignisse.

Durch diese Definition wird Zufälligkeit also mathematisch überall dort definiert, wo Wahrscheinlichkeitsverteilungen erwarteten Ergebnissen zugeordnet werden können.

Da die Quantenmechanik eine probabilistische Theorie par excellence ist, dh Messgrößen aus Lösungen relevanter Differentialgleichungen Wahrscheinlichkeitsverteilungen zugeordnet werden, ist diese mathematische Definition von Zufälligkeit nicht die in der Stellungnahme verwendete. Es muss das alltägliche Konzept am Anfang des Links sein:

Zufälligkeit ist das Fehlen von Mustern oder Vorhersagbarkeit in Ereignissen. Eine zufällige Abfolge von Ereignissen, Symbolen oder Schritten hat keine Ordnung und folgt keinem verständlichen Muster oder einer Kombination.

Die Aussage Es gibt keine Zufälligkeit kann also auf jedes Ereignis angewendet werden, das aus einer Wahrscheinlichkeitsverteilung vorhergesagt/geschätzt werden kann, und nicht nur in der Quantenmechanik. Wenn eine mathematische Wahrscheinlichkeitsverteilung existiert, gibt es nur eine Unsicherheit für eine bestimmte Messung, die als Wahrscheinlichkeit für dieses Ergebnis angegeben wird.

Die Aussage sollte also lauten:

Wo eine mathematische Wahrscheinlichkeitsverteilung existiert, gibt es keinen Zufall, sondern nur Unsicherheit .

Das Original ist also eine Aussage, die in einer Diskussion gültig ist, in der deterministische klassische Theorien diskutiert werden, die einen einzelnen Messwert als Lösungen der entsprechenden Gleichungen vorhersagen, während die Quantenmechanik (oder jede Wahrscheinlichkeitstheorie) einen unsicheren Wert mit einer bestimmten Wahrscheinlichkeit vorhersagt.

Die obige Darstellung beweist, dass der Kontext, in dem eine Aussage gemacht wird, genauso wichtig ist wie Grenzwerte für physikalische Lösungen.

Bitte werfen Sie einen Blick auf die zentralen Ergebnisse der Wahrscheinlichkeitstheorie, die eine Reihe von zentralen Grenzwertsätzen sind. Wo in der Quantenmechanik finden Sie zentrale Grenzwertsätze nützlich?
@CuriousOne kannst du einen Link geben? Ich kann einen zentralen Grenzwertsatz für die Quantenmechanik angeben, indem ich arxiv.org/abs/quant-ph/0608198 googel
Seriöse Mathematik-Lehrbücher zur Wahrscheinlichkeitstheorie sollten ausreichen. Siehe zB mathworld.wolfram.com/CentralLimitTheorem.html für eine Einführung in die trivialsten Aspekte davon.
@CuriousOne Es scheint jedoch, dass sie auch für die Quantenmechanik existieren, was Ihrer Meinung nach nicht der Fall ist
Zentrale Grenzen? Nicht wirklich. Können Sie die Supraleitung aus einem Mittelungsverfahren ableiten, das zu einer Gauß-Verteilung führt? Wie sieht es mit den Energieniveaus von Wasserstoff aus? Wie leiten sie sich von einer Gaußschen ab?
Der relevante zentrale Grenzwertsatz würde für Tensorprodukte von Quantenzuständen gelten. Betrachten Sie es als eine Form der Universalität in quantenkritischen Phänomenen. Oder alternativ Universalität in thermischen Quantensystemen bei endlicher Temperatur.
@ fs137: Nicht einmal die Thermodynamik kann auf einen zentralen Grenzwertsatz reduziert werden, und die Welt kann nicht auf Thermodynamik reduziert werden, nicht einmal für T . Das hat Max Planck im Jahr 1900 herausgefunden.
@CuriousOne der Link, den ich gegeben habe, sagt "beschreibt die Beziehung zwischen dem zentralen Quantengrenzwertsatz", ein Hinweis, dass es viele andere Wahrscheinlichkeitsverteilungen als Gaußsche ( student-t , poisson ..) en.wikipedia.org/wiki/List_of_probability_distributions gibt
Sie können jede dieser Verteilungen nehmen und über sie mitteln (im Sinne der Stochastik), sie werden alle (ziemlich schnell) zu Gaußschen konvergieren. Gaußsche Zahlen sind natürlich nicht einmal der Kern der Thermodynamik. Warum wollen alle die Welt auf ein oder zwei Phänomene reduzieren, wenn wir alle unseren Lebensunterhalt damit verdienen, die schwindelerregende Realität zu studieren, dass sie überhaupt nicht aus ein oder zwei Phänomenen besteht?
Niemand versucht hier irgendetwas zu zerquetschen (hoffe ich). Der zentrale Grenzwertsatz ist das bekannteste Beispiel für Universalität, bei dem eine grobe Körnung (implementiert durch Mittelwertbildung) zu einer eindeutigen Skalierungsgrenze führt. In Quantensystemen wird die „Grobkörnung“ anders implementiert, beinhaltet jedoch die Gruppierung von Teilsystemen und die Verfolgung mikroskopischer Freiheitsgrade. Die Skalierungsgrenze ist eine Dichtematrix oder Feldtheorie (obwohl kanonisch der Grundzustand / DM am wichtigsten ist). (Außerdem konvergiert die Cauchy-Verteilung nicht zu einer Gaußschen Verteilung).

Der Kern Ihrer Frage ist subtil, daher werde ich bei der Gestaltung meiner Antwort vorsichtig sein.

Nach meinem Verständnis der Quantenmechanik kommt der Kollaps einer Wellenfunktion der mathematischen Idealisierung einer Zufallsvariablen am nächsten, was ein physikalischer Prozess sein kann. Vor dem Kollaps, einem komplizierten Vielteilchenprozess , ist die Wellenfunktionsentwicklung des Systems jedoch deterministisch (einheitlich). Man könnte sagen, dass Unsicherheit die Wellenfunktion vor der Messung charakterisiert (die Messung wird als eine Art dissipativer Prozess angesehen), während „Zufälligkeit“ die Wahrscheinlichkeiten charakterisiert, verschiedene Messungen durchzuführen, implizit nachdem eine für die Messung erforderliche Dekohärenz aufgetreten ist.

[Nachtrag: Im Zusammenhang mit Quantencomputern ist es wichtig, eine Reihe von Messungen (Quantenzahlen, die zum Lesen der Ausgabe der Berechnung verwendet werden) zu finden, die so weit wie möglich mit der Reihe von (aussagekräftigen) Endzuständen übereinstimmen, die der Algorithmus erzeugen könnte . Wenn zwischen der Messachse und diesen Endzuständen eine gewisse Fehlausrichtung besteht, wird beim Lesen der Ausgabe Rauschen erzeugt.]

"Wellenfunktionskollaps" (was eigentlich nur ein sehr unglücklicher Name für die Born-Regel ist) erfordert, dass das System offen ist, dh vielen unbekannten Freiheitsgraden ausgesetzt ist. Es ist "zufällig", weil es physikalisch so gemacht ist, dass es zufällig ist.
Ich stimme zu. Aber Messungen müssen gemacht werden, und der Zusammenbruch der Wellenfunktion ist das, was unsere begrenzten Sinne beobachten können. Außerdem sind alle physischen Systeme offen.
Man kann Spinechos gut beobachten. Eine starke Messung ist eine so grobe Operation an einem Quantensystem, dass viele vergessen, wie viel Spaß zerstörungsfreie Dinge man damit machen kann. Ein Teil des Problems mit QM 101 ist, dass es in einem phänomenologischen Vakuum gelehrt wird, während ein kurzer Blick in ein paar Lehrbücher über Quantenoptik, Spinresonanz und Festkörperphysik lehren könnte, dass es ein ganzes Universum von phänomenal nützlichen Quantenmesstechniken gibt da draußen, für die eine starke Messung nur ein winziges Stück ist (und in Hep überhaupt nicht verwendet wird).
Alles, was ich sage, ist, dass physikalische Zufälligkeit, die keine Folge der Unwissenheit des Beobachters ist, aus dem Kollaps der Wellenfunktion stammt. (Sie können argumentieren, dass die Zufälligkeit durch den Zusammenbruch der Wellenfunktion eine Folge der Unkenntnis der Vielkörper-Wellenfunktion von System + Umgebung ist.)
Tatsächlich ist der „Zusammenbruch der Wellenfunktion“ die gewählte Ignoranz des Beobachters. Nicht jedes System ist automatisch ein gutes Messgerät. Nur solche Systeme, die über eine ausreichende Anzahl unbekannter Freiheitsgrade verfügen, sind geeignet, das Ergebnis einer unverfälschten Messung für die „Ewigkeit“ zu speichern.
Nun, die meisten Experimentatoren, die ich kenne, haben ein gutes Gedächtnis.
Haben Sie jemals einen Experimentator gekannt, der sich in einer Quantenüberlagerung mit sich selbst befand? Ich auch nicht. Experimentalisten sind Systeme mit vielen thermodynamischen Freiheitsgraden.
Jetzt interessiert mich Ihre Definition des "thermodynamischen Freiheitsgrades". Vielleicht sollten wir das im Chat fortsetzen?
Korrektur: Ich glaube, ich habe Ihre Vorstellung von einem guten Messgerät vorhin falsch interpretiert. Müssten Sie (und alle Ihre thermodynamischen Freiheitsgrade) nicht viele Messungen durchführen, um genügend Informationen über das System zu erhalten, um die Ergebnisse Ihres idealen Messgeräts zu interpretieren ? Wie würde es nicht einfach den Zustand des ursprünglichen Systems in eine neue Art der Repräsentation propagieren?
Der Unterschied zwischen quantenmechanischen Freiheitsgraden und thermodynamischen (stochastischen) Freiheitsgraden wird in der Theorie der Dichtematrix explizit gemacht. Die Definition eines "guten" Messgeräts ist eines, das ein "unendliches Gedächtnis" hat und ein Ergebnis liefert, das in gewissem physikalischen Sinne interpretiert werden kann. Es ist genauso ein „Ich weiß es, wenn ich es sehe“ wie eine Newtonsche Kraft. Ich versuche hier nicht, in eine allgemeine philosophische Diskussion einzusteigen. Wir wissen, wie man „gute Messgeräte“ entwirft, und es beginnt mit Intuition und einem Hardwarekatalog, nicht mit einem Bediener.
Ich verstehe. Nun, für mich klingt es so, als würden Sie erklären, wie man schwache Messungen durchführt. Wenn ich dies versuchen würde, wäre mein Ziel wahrscheinlich, schwache Messungen zu verwenden, um die Wellenfunktion zu rekonstruieren (unter der Annahme, dass sich das System in einem reinen Zustand befindet). Wenn ich jedoch die Wellenfunktion nicht bereits kannte (oder einige Kenntnisse über ihre möglichen Zustände hatte, vgl. Aussage zur QC in meiner Antwort), müsste ich mindestens ein paar starke Messungen durchführen, um zu erfahren, was die Wellenfunktion ist. Sonst wäre die Quantentomographie sehr einfach.
Schwache Messungen rekonstruieren die Wellenfunktion nicht. Die schwachen Messungen, die die Natur ständig durchführt, reduzieren einige Aspekte der Quantentheorie auf einige Aspekte der klassischen Mechanik. Und einige Aspekte der Quantenmechanik werden überhaupt nicht reduziert (zB die Existenz von Materie). "Die Wellenfunktion" ist eine reduktionistische Sichtweise, die fast den gesamten der Natur innewohnenden Reichtum verliert, indem sie vorgibt, alles sei entweder ein geschlossenes System oder ein Hammer, der es in einen projektiven Unterraum zerquetscht. Im Ernst ... die Realität ist viel interessanter als das.
Korrektur: schwache Messungen (im Sinne einer Messung, die die Wellenfunktion nicht wesentlich stört) plus unitäre Transformationen können zur Rekonstruktion der Wellenfunktion verwendet werden, solange "genug" schwache Messungen durchgeführt werden können, ohne dass der Anfangszustand dekohär wird . (Sind Sie sich auch absolut sicher, dass diese Diskussion nicht philosophisch sein soll?)
Für mich ist das überhaupt nicht philosophisch. Ich habe in meinem Leben viele "schwache" Messungen durchgeführt, ich habe sie früher nur "einen Teilchendetektor" genannt. Im Gegensatz zu einigen meiner Kollegen hatte ich das Glück zu wissen, was „ein Teilchendetektor“ eigentlich macht. Nicht dass es wichtig wäre, man kann wirklich gute Teilchendetektoren entwerfen, ohne jemals zu bemerken, dass ihre Low-Level-Funktion von Mott im Jahr 1929 gut verstanden wurde, der gleichzeitig die richtige Grenze zwischen der Quantenwelt und CM angab, wie er als erster beschrieb eine praktisch wichtige schwache Messgrenze. :-)
@CuriousOne, ich genieße diese Diskussion wirklich und mache mir ein wenig Sorgen darüber, wie lange sie dauern wird (also wäre es vielleicht gut, zum Chat überzugehen). In Ihrem Teilchendetektor-Beispiel liefert Ihnen das Ensemble schwacher Messungen (verschiedener Typen, abhängig von Instrumentierung, Kollision und Energieskala) detaillierte Informationen über mikroskopische Wechselwirkungen. Stimmen Sie zu, dass Messungen wie diese durchgeführt werden müssen, um Informationen über ein System zu erhalten, und dass sie nach dem Landauer-Prinzip ein gewisses Maß an Dekohärenz beinhalten müssen?
Genaue Information? Von einem Teilchendetektor??? Wir wünschen. Nichts für ungut, aber sie gehören zu den am wenigsten präzisen Experimenten, die jemals gebaut wurden, und können im Prinzip nichts anderes sein. Einige, bei deren Bau ich mitgeholfen habe, gelten als erfolgreich, wenn sie die Größenordnung der Teilchenenergie richtig bestimmen. :-)
Natürlich gibt eine schwache Messung kaum Auskunft über ein bestimmtes Ereignis oder System. Ich wollte nur allgemein daran erinnern, dass die Parameter für ein quantenmechanisches Modell durch Messensembles eng eingeschränkt werden können.