Betrachten Sie diesen Penny auf meiner Beschreibung. Es ist ein bestimmtes Stück Metall, gut beschrieben durch die statistische Mechanik, das ihm einen Zustand zuweist, nämlich die Dichtematrix (im einfachsten Modell). Dies ist ein Operator in einem Raum von Funktionen, der von den Koordinaten einer großen Zahl abhängt von Partikeln.
Die Ignoranz-Interpretation der statistischen Mechanik , die Orthodoxie, zu der alle Einführungen in die statistische Mechanik Lippenbekenntnisse abgeben, behauptet, dass die Dichtematrix eine Beschreibung der Ignoranz ist und dass die wahre Beschreibung eine Wellenfunktion sein sollte; jeder reine Zustand, der mit der Dichtematrix übereinstimmt, sollte das gleiche makroskopische Ergebnis erzeugen.
Es wäre jedoch sehr überraschend, wenn die Natur ihr Verhalten ändern würde, je nachdem, wie viel wir ignorieren. Daher muss die Rede von Unwissenheit eine objektive, formalisierbare Grundlage haben, die unabhängig von irgendjemandes besonderem ignorantem Verhalten ist.
Andererseits arbeitet die statistische Mechanik immer ausschließlich mit der Dichtematrix (außer ganz am Anfang, wo sie motiviert ist). Nirgends (außer dort) macht man sich die Annahme zunutze, dass die Dichtematrix Unwissenheit ausdrückt. Daher scheint mir das gesamte Konzept der Unwissenheit falsch zu sein, ein Relikt aus den frühen Tagen der statistischen Mechanik.
Daher möchte ich die Verteidiger der Orthodoxie einladen, die folgenden Fragen zu beantworten:
(i) Lässt sich die Behauptung experimentell überprüfen, dass die Dichtematrix (etwa eine kanonische Gesamtheit, die ein makroskopisches System im Gleichgewicht korrekt beschreibt) Unwissenheit beschreibt? - Wenn ja, wie und wessen Unkenntnis? - Wenn nein, warum wird diese Ignoranzinterpretation angenommen, obwohl gar nichts davon abhängt?
(ii) Nehmen wir in einem Experiment an, dass Alice und Bob unterschiedlich viel Unwissenheit über ein System haben. Somit beläuft sich Alices Wissen auf eine Dichtematrix , während Bobs Wissen auf eine Dichtematrix hinausläuft . Gegeben und , wie kann man prinzipiell prüfen, ob Bobs Beschreibung mit der von Alice übereinstimmt?
(iii) Wie entscheidet man, ob ein reiner Zustand vorliegt durch einen Zustand der statistischen Mechanik angemessen dargestellt wird ? Nehmen Sie in Bezug auf (ii) an, dass Alice den wahren Zustand des Systems kennt (nach der Unwissenheitsinterpretation der statistischen Mechanik ein reiner Zustand). , korrespondierend zu ), während Bob nur die Beschreibung der statistischen Mechanik kennt, .
Vermutlich sollte es eine Art quantitatives Maß geben das verschwindet wann und gibt an, wie kompatibel die beiden Beschreibungen sind. Was kann es sonst bedeuten, dass zwei Beschreibungen konsistent sind? Der mathematisch natürliche Kandidat, die relative Entropie (= Kullback-Leibler-Divergenz) , die Spur von , [Bearbeiten: Ich habe einen Vorzeichenfehler korrigiert, auf den in der Diskussion unten hingewiesen wurde] funktioniert nicht. In der Tat, in der Situation (iii), entspricht der Erwartung von im reinen Zustand; diese ist im Grundzustand des Hamiltonoperators minimal. Aber das würde bedeuten, dass der Grundzustand am besten mit der Dichtematrix jeder Temperatur übereinstimmt, eine inakzeptable Bedingung.
Bearbeiten: Nachdem ich das Papier http://bayes.wustl.edu/etj/articles/gibbs.paradox.pdf von ET Jaynes gelesen habe, auf das in der folgenden Diskussion hingewiesen wurde, kann ich die Abfrage in (iii) präzisieren: In der Terminologie von S.5 dort die Dichtematrix stellt einen Makrozustand dar, während jede Wellenfunktion stellt einen Mikrozustand dar. Die Frage ist dann: Wann darf (oder darf nicht) ein Mikrozustand als Makrozustand angesehen werden ohne die Vorhersagbarkeit der makroskopischen Beobachtungen zu beeinträchtigen? Wie berechne ich im obigen Fall die Temperatur des Makrozustands, der einem bestimmten Mikrozustand entspricht? damit das makroskopische Verhalten gleich ist - wenn ja, und nach welchem Kriterium kann ich entscheiden, ob (gegeben ) ist diese Annäherung sinnvoll?
Ein Beispiel, wo es nicht vernünftig ist, zu betrachten als kanonisches Ensemble ist if stellt ein zusammengesetztes System dar, das aus zwei Stücken des Pennys bei unterschiedlicher Temperatur besteht. Offensichtlich kann kein kanonisches Ensemble diese Situation makroskopisch korrekt beschreiben. Das gesuchte Kriterium muss also in der Lage sein, zwischen einem Zustand, der ein solches zusammengesetztes System darstellt, und dem Zustand eines Pennys mit einheitlicher Temperatur zu entscheiden, und im letzteren Fall muss es ein Rezept geben, wie eine Temperatur zugeordnet werden kann , nämlich die Temperatur, die mir die Natur erlaubt zu messen.
Die Temperatur meines Pennys wird von der Natur bestimmt und muss daher von einem Mikrozustand bestimmt werden, der behauptet, eine vollständige Beschreibung des Pennys zu sein.
Ich habe noch nie eine Diskussion über ein solches Identifikationskriterium gesehen, obwohl sie unerlässlich sind, wenn man die der Ignoranzinterpretation zugrunde liegende Idee vermitteln will, dass ein vollständig spezifizierter Quantenzustand ein reiner Zustand sein muss.
Ein Teil der Diskussion dazu findet sich jetzt unter: http://chat.stackexchange.com/rooms/2712/discussion-between-arnold-neumaier-and-nathaniel
Bearbeiten (11. März 2012): Ich habe Nathaniels Antwort unter den gegebenen Umständen als zufriedenstellend akzeptiert, obwohl er vergessen hat, eine vierte Möglichkeit zu erwähnen, die ich bevorzuge. nämlich, dass das gesamte Wissen über ein Quantensystem tatsächlich durch eine Dichtematrix beschrieben wird, so dass Mikrozustände beliebige Dichtematrizen und ein Makrozustand einfach eine Dichtematrix einer speziellen Form sind, durch die sich ein beliebiger Mikrozustand (Dichtematrix) gut annähern lässt wenn nur makroskopische Konsequenzen von Interesse sind. Diese speziellen Dichtematrizen haben die Form mit einem einfachen Operator - im Gleichgewichtsfall eine Linearkombination von 1, (und verschiedene Zahlenoperatoren falls konserviert), die das kanonische oder großkanonische Ensemble definieren. Dies steht im Einklang mit der gesamten statistischen Mechanik und hat den Vorteil der Einfachheit und Vollständigkeit gegenüber der Ignoranzinterpretation, die den zusätzlichen qualitativen Begriff der Ignoranz und damit allerlei zu ungenaue oder zu schwer zu beantwortende Fragen benötigt.
Ich würde nicht sagen, dass die Ignoranz-Interpretation ein Relikt aus den Anfängen der statistischen Mechanik ist. Es wurde erstmals 1957 von Edwin Jaynes vorgeschlagen (siehe http://bayes.wustl.edu/etj/node1.html, Papiere 9 und 10, sowie Nummer 36 für eine ausführlichere Version des Arguments) und war bis vor kurzem umstritten. (Jaynes argumentierte, dass die Ignoranz-Interpretation in der Arbeit von Gibbs enthalten war, aber Gibbs selbst hat sie nie ausgesprochen.) Bis vor kurzem bevorzugten die meisten Autoren eine Interpretation, bei der (zumindest für ein klassisches System) die Wahrscheinlichkeiten in der statistischen Mechanik den Bruch darstellten Zeit, die das System in jedem Zustand verbringt, und nicht die Wahrscheinlichkeit, dass es sich gerade in einem bestimmten Zustand befindet. Diese alte Interpretation macht es unmöglich, mithilfe der statistischen Mechanik über transientes Verhalten zu argumentieren, und dies macht letztendlich den Wechsel zur Ignoranz-Interpretation nützlich.
Als Antwort auf Ihre nummerierten Punkte:
(i) Ich beantworte die Frage "Wessen Unwissenheit?" Teil zuerst. Die Antwort darauf ist "ein Experimentator mit Zugang zu makroskopischen Messgeräten, die beispielsweise Druck und Temperatur messen können, aber nicht den genauen mikroskopischen Zustand des Systems bestimmen können." Wenn Sie die zugrunde liegende Wellenfunktion des Systems genau kennen würden (zusammen mit der vollständigen Wellenfunktion aller Teilchen im Wärmebad, falls vorhanden, zusammen mit dem Hamilton-Operator für das kombinierte System), gäbe es überhaupt keine Notwendigkeit, die statistische Mechanik zu verwenden , weil man stattdessen einfach die Schrödinger-Gleichung integrieren könnte. Die Unwissenheitsinterpretation der statistischen Mechanik behauptet nicht, dass die Natur ihr Verhalten in Abhängigkeit von unserer Unwissenheit ändert; eher, Es behauptet, dass die statistische Mechanik ein Werkzeug ist, das nur in den Fällen nützlich ist, in denen wir eine gewisse Unkenntnis über den zugrunde liegenden Zustand oder seine zeitliche Entwicklung haben. Vor diesem Hintergrund macht es wenig Sinn zu fragen, ob sich die Ignoranz-Interpretation experimentell bestätigen lässt.
(ii) Ich denke, das hängt davon ab, was Sie mit "im Einklang mit" meinen. Wenn zwei Personen unterschiedliche Kenntnisse über ein System haben, gibt es im Prinzip keinen Grund, dass sie sich in ihren Vorhersagen über sein zukünftiges Verhalten einig sein sollten. Ich sehe jedoch einen Weg, wie ich diese Frage angehen kann. Ich weiß nicht, wie ich es in Dichtematrizen ausdrücken soll (Quantenmechanik ist nicht wirklich mein Ding), also wechseln wir zu einem klassischen System. Alice und Bob drücken beide ihr Wissen über das System als Wahrscheinlichkeitsdichtefunktion aus , die Menge möglicher Zustände des Systems (dh der Positions- und Geschwindigkeitsvektor jedes Teilchens) zu einem bestimmten Zeitpunkt. Nun, wenn es keinen Wert von gibt denen sowohl Alice als auch Bob eine positive Wahrscheinlichkeitsdichte zuweisen, können sie als inkonsistent bezeichnet werden, da jeder Zustand, den Alice akzeptiert, dass das System in Bob sein könnte, sagt, dass dies nicht der Fall ist, und umgekehrt. Wenn ein solcher Wert von existiert, dann können Alice und Bob beide in ihrem Wissensstand "richtig" sein, wenn sich herausstellt, dass sich das System in diesem bestimmten Zustand befindet. Ich werde diese Idee weiter unten fortsetzen.
(iii) Auch hier weiß ich nicht wirklich, wie ich das in den Dichtematrix-Formalismus umwandeln soll, aber in der klassischen Version der statistischen Mechanik weist ein makroskopisches Ensemble jedem möglichen mikroskopischen Zustand eine Wahrscheinlichkeit (oder eine Wahrscheinlichkeitsdichte) zu, und das ist was Sie verwenden, um zu bestimmen, wie stark ein bestimmter Mikrozustand in einem bestimmten Ensemble vertreten ist. Im Dichtematrixformalismus sind die reinen Zustände den mikroskopischen Zuständen im klassischen analog. Ich denke, Sie müssen etwas mit Projektionsoperatoren tun, um die Wahrscheinlichkeit eines bestimmten reinen Zustands aus einer Dichtematrix zu ermitteln (ich habe es einmal gelernt, aber es ist zu lange her), und ich bin sicher, dass die Prinzipien in beiden Formalismen ähnlich sind .
Ich stimme zu, dass das Maß, das Sie suchen, ist . (Ich denke, das ist im Fall der Dichtematrix, der abgesehen von einer Vorzeichenänderung so aussieht, wie Sie geschrieben haben.) In dem Fall, in dem A ein reiner Zustand ist, gibt dies nur , der negative Logarithmus der Wahrscheinlichkeit, die Bob diesem bestimmten reinen Zustand zuordnet. Informationstheoretisch kann dies als „surprisal“ des Staates interpretiert werden , dh die Menge an Informationen, die Bob geliefert werden muss, um ihn von diesem Zustand zu überzeugen ist in der Tat die richtige. Wenn Bob Zustand betrachtet unwahrscheinlich, dann wird er sehr überrascht feststellen, dass es der richtige ist.
Wenn B dem Zustand eine Wahrscheinlichkeit von null zuweist dann wird das Maß bis ins Unendliche divergieren, was bedeutet, dass Bob unendlich viel Überzeugungsarbeit leisten müsste, um etwas zu akzeptieren, von dem er absolut sicher war, dass es falsch war. Wenn A ein gemischter Zustand ist, geschieht dies, solange A jedem Zustand, dem B eine Wahrscheinlichkeit von Null zuordnet, eine positive Wahrscheinlichkeit zuordnet. Wenn A und B gleich sind, ist dieses Maß 0. Daher das Maß kann als Maß dafür angesehen werden, wie "inkompatibel" zwei Wissensstände sind. Da die KL-Divergenz asymmetrisch ist, müssen Sie dies wohl auch berücksichtigen , was so etwas wie der Grad der Unplausibilität von B aus Sicht von A ist.
Mir ist bewusst, dass ich einige Dinge übersprungen habe, da es ziemlich viel zu schreiben gab und ich nicht viel Zeit dafür habe. Ich werde es gerne erweitern, wenn etwas davon unklar ist.
Bearbeiten (als Antwort auf die Bearbeitung am Ende der Frage): Die Antwort auf die Frage "Wann darf (oder darf nicht) ein Mikrozustand als Makrozustand angesehen werden ohne die Vorhersagbarkeit der makroskopischen Beobachtungen zu beeinträchtigen?" ist "im Grunde nie". Ich werde dies mit klassischen Begriffen der Mechanik ansprechen, weil es für mich einfacher ist, in dieser Sprache zu schreiben. Makrozustände sind Wahrscheinlichkeitsverteilungen über Mikrozustände, also die einzige Zeit, in der sich ein Makrozustand verhalten kann genauso wie es ein Mikrozustand ist, wenn der Makrozustand zufällig eine Wahrscheinlichkeitsverteilung mit vollständiger Spitze ist (mit Entropie 0, Zuweisung zu einem Mikrozustand und zum Rest) und während der Zeitentwicklung so zu bleiben.
Sie schreiben in einem Kommentar "Wenn ich einen bestimmten Cent mit einer bestimmten Temperatur auf meinem Schreibtisch habe, wie kann er dann mehrere verschiedene Reinzustände haben?" Aber (zumindest in Jaynes' Version der MaxEnt-Interpretation der statistischen Mechanik) ist die Temperatur keine Eigenschaft des Mikrozustands, sondern des Makrozustands. Es ist das partielle Differential der Entropie in Bezug auf die innere Energie. Was Sie im Wesentlichen tun, ist (1) den Makrozustand mit der maximalen (Informations-) Entropie zu finden, die mit der inneren Energie kompatibel ist, die gleich ist , dann (2) Finden des Makrozustands mit der maximalen Entropie, die mit der inneren Energie kompatibel ist, die gleich ist , dann (3) Differenzbildung und Division durch . Wenn Sie von Mikrozuständen anstelle von Makrozuständen sprechen, ist die Entropie immer 0 (gerade weil Sie keine Unwissenheit haben), und daher macht es keinen Sinn, dies zu tun.
Jetzt möchten Sie vielleicht etwas sagen wie: "Aber wenn mein Penny einen bestimmten reinen Zustand hat, den ich zufällig nicht kenne, dann würde er sich sicherlich genauso verhalten, wenn ich diesen reinen Zustand wüsste." Das stimmt, aber wenn Sie den reinen Zustand genau kennen würden, müssten Sie (im Prinzip) nicht mehr die Temperatur in Ihren Berechnungen verwenden, weil Sie (im Prinzip) in der Lage wären, die Flüsse in und aus dem genau zu berechnen Penny, und somit wären Sie in der Lage, exakte Antworten auf die Fragen zu geben, die die statistische Mechanik nur statistisch beantworten kann.
Natürlich könnten Sie das zukünftige Verhalten des Pennys nur über sehr kurze Zeitskalen berechnen, da der Penny mit Ihrem Schreibtisch in Kontakt steht, dessen genauen Quantenzustand Sie (vermutlich) nicht kennen. Sie müssen daher Ihren reinen Makrozustand des Pennys ziemlich schnell durch einen gemischten ersetzen. Die Tatsache, dass dies geschieht, ist ein Grund, warum Sie den gemischten Zustand im Allgemeinen nicht einfach durch einen einzigen "repräsentativsten" reinen Zustand ersetzen und die Entwicklung dieses reinen Zustands verwenden können, um die zukünftige Entwicklung des Systems vorherzusagen.
Bearbeiten 2: die klassischen versus Quantenfälle. (Diese Bearbeitung ist das Ergebnis eines langen Gesprächs mit Arnold Neumaier im Chat, das in der Frage verlinkt ist.)
In den meisten der obigen Ausführungen habe ich über den klassischen Fall gesprochen, in dem ein Mikrozustand so etwas wie ein großer Vektor ist, der die Positionen und Geschwindigkeiten jedes Teilchens enthält, und ein Makrozustand einfach eine Wahrscheinlichkeitsverteilung über eine Menge möglicher Mikrozustände ist. Man nimmt an, dass Systeme einen bestimmten Mikrozustand haben, aber die Praktikabilität makroskopischer Messungen bedeutet, dass wir für alle außer den einfachsten Systemen nicht wissen können, was es ist, und daher modellieren wir es statistisch.
In diesem klassischen Fall sind die Argumente von Jaynes (meiner Meinung nach) ziemlich unanfechtbar: Wenn wir in einer klassischen Welt leben würden, hätten wir keine praktische Möglichkeit, die Position und Geschwindigkeit jedes Teilchens in einem System wie einen Penny auf einem genau zu kennen Schreibtisch, und so bräuchten wir eine Art Kalkül, um trotz unserer Unwissenheit Vorhersagen über das Verhalten des Systems treffen zu können. Wenn man untersucht, wie ein optimaler solcher Kalkül aussehen würde, gelangt man genau zum mathematischen Rahmen der statistischen Mechanik (Boltzmann-Verteilungen und alles andere). Indem man bedenkt, wie sich die eigene Unkenntnis über ein System im Laufe der Zeit verändern kann, gelangt man zu Ergebnissen, die (zumindest scheint es mir) in der traditionellen frequentistischen Interpretation unmöglich zu sagen, geschweige denn abzuleiten wären. Der Fluktuationssatz ist ein Beispiel für ein solches Ergebnis.
In einer klassischen Welt gäbe es im Prinzip keinen Grund, warum wir nicht den genauen Mikrozustand eines Pennys kennen könnten (zusammen mit dem von allem, womit er in Kontakt kommt). Die einzigen Gründe dafür, es nicht zu wissen, sind praktische. Wenn wir solche Probleme überwinden könnten, könnten wir die zeitliche Entwicklung des Mikrozustands genau vorhersagen. Solche Vorhersagen könnten ohne Bezugnahme auf Konzepte wie Entropie und Temperatur gemacht werden. Zumindest nach Ansicht von Jaynes sind dies rein makroskopische Konzepte und haben auf mikroskopischer Ebene keine Bedeutung. Die Temperatur Ihres Pennys wird sowohl von der Natur als auch von der Natur bestimmtdurch das, was Sie über die Natur messen können (was von der Ihnen zur Verfügung stehenden Ausrüstung abhängt). Wenn Sie den (klassischen) Mikrozustand detailliert genug messen könnten, könnten Sie sehen, welche Teilchen die höchsten Geschwindigkeiten hatten, und somit in der Lage sein, Arbeit über einen Maxwell-Dämonenapparat zu extrahieren. Tatsächlich würden Sie den Penny in zwei Subsysteme aufteilen, eines mit den hochenergetischen Teilchen und eines mit den energieärmeren; diese beiden Systeme würden effektiv unterschiedliche Temperaturen haben.
Mein Gefühl ist, dass all dies ohne Schwierigkeiten auf die Quantenebene übertragen werden sollte, und tatsächlich präsentierte Jaynes einen Großteil seiner Arbeit eher in Bezug auf die Dichtematrix als auf klassische Wahrscheinlichkeitsverteilungen. Es gibt jedoch eine große und (ich denke, es ist fair zu sagen) ungelöste Subtilität im Quantenfall, nämlich die Frage, was wirklich als Mikrozustand für ein Quantensystem gilt.
Eine Möglichkeit ist zu sagen, dass der Mikrozustand eines Quantensystems ein reiner Zustand ist. Dies hat einen gewissen Reiz: Reine Zustände entwickeln sich deterministisch wie klassische Mikrozustände, und die Dichtematrix kann durch Berücksichtigung von Wahrscheinlichkeitsverteilungen über reine Zustände abgeleitet werden. Das Problem dabei ist jedoch die Unterscheidbarkeit: Einige Informationen gehen verloren, wenn von einer Wahrscheinlichkeitsverteilung über reine Zustände zu einer Dichtematrix übergegangen wird. Beispielsweise gibt es keinen experimentell unterscheidbaren Unterschied zwischen den gemischten Zuständen und für eine Spritztour- System. Wenn man den Mikrozustand eines Quantensystems als einen reinen Zustand betrachtet, ist man fest entschlossen zu sagen, dass es einen Unterschied zwischen diesen beiden Zuständen gibt, nur dass es unmöglich ist, ihn zu messen. Dies ist eine philosophisch schwierige Position, da sie mit Occams Rasiermesser angegriffen werden kann.
Dies ist jedoch nicht die einzige Möglichkeit. Eine andere Möglichkeit ist zu sagen, dass selbst reine Quantenzustände unsere Unwissenheit über eine zugrunde liegende, tiefere Ebene der physikalischen Realität darstellen. Wenn man bereit ist, die Lokalität zu opfern, kann man zu einer solchen Ansicht gelangen, indem man Quantenzustände im Sinne einer Theorie nicht-lokaler verborgener Variablen interpretiert.
Eine andere Möglichkeit ist zu sagen, dass die Wahrscheinlichkeiten, die man aus der Dichtematrix erhält, überhaupt nicht unsere Unwissenheit über einen zugrunde liegenden Mikrozustand darstellen, sondern stattdessen unsere Unwissenheit über die Ergebnisse zukünftiger Messungen, die wir an dem System vornehmen könnten.
Ich bin mir nicht sicher, welche dieser Möglichkeiten ich bevorzuge. Der Punkt ist nur, dass auf philosophischer Ebene die Unwissenheitsinterpretation im Quantenfall schwieriger ist als im klassischen. Aber in der Praxis macht es kaum einen Unterschied - die Ergebnisse, die aus dem viel klareren klassischen Fall abgeleitet wurden, können fast immer mit sehr geringen Modifikationen in Bezug auf die Dichtematrix neu formuliert werden.
Ich werde die Antwort von @ Natahniel mit der Tatsache vervollständigen, dass „Wissen“ physikalische Auswirkungen haben kann, die mit dem Verhalten der Natur verbunden sind. Das Problem geht auf Maxwells Dämon zurück , der sein Wissen über das System in Arbeit umwandelt. Neuere Arbeiten (wie arXiv:0908.0424 The work value of information ) zeigen, dass die informationstheoretischen Entropien, die das Wissen des Systems definieren, mit der Arbeit verbunden sind, die auf die gleiche Weise extrahierbar ist wie die physikalischen Entropien.
Um dies in wenigen Worten zusammenzufassen: „Die Natur ändert ihr Verhalten [nicht] in Abhängigkeit davon, wie viel wir ignorieren“, aber „wie viel wir ignorieren“ ändert die Menge an Arbeit, die wir der Natur entziehen können.
Wenn es um die Diskussion dieser Angelegenheiten geht, mache ich einen folgenden Kommentar, der mit dem Zitat aus Landau-Lifshitz, Buch 5, Kapitel 5 beginnt:
Die Mittelung mittels der statistischen Matrix ... hat einen doppelten Charakter. Sie umfasst sowohl die Mittelung aufgrund der probalistischen Natur der Quantenbeschreibung (auch wenn sie möglichst vollständig ist) als auch die statistische Mittelung, die aufgrund der Unvollständigkeit unserer Informationen über das betrachtete Objekt erforderlich ist .... Es muss jedoch berücksichtigt werden, dass dass diese Bestandteile nicht getrennt werden können; die gesamte Mittelungsprozedur wird als eine einzige Operation durchgeführt und kann nicht als Ergebnis aufeinanderfolgender Mittelungen, eine rein quantenmechanisch und die andere rein statistisch, dargestellt werden.
... und die folgende ...
Hervorzuheben ist, dass die Mittelung über diverse Zustände, die wir benutzt haben, um den Übergang von einer vollständigen zu einer unvollständigen quantenmechanischen Beschreibung zu illustrieren, hat nur eine sehr formale Bedeutung. Insbesondere wäre es völlig falsch anzunehmen, dass die Beschreibung durch die Dichtematrix bedeutet, dass das Subsystem in verschiedenen sein kann Zustände mit unterschiedlichen Wahrscheinlichkeiten und dass der Durchschnitt über diesen Wahrscheinlichkeiten liegt. Eine solche Behandlung würde den Grundprinzipien der Quantenmechanik widersprechen.
Wir haben also zwei Aussagen:
Aussage A: Sie können quantenmechanische und statistische Unsicherheit in der Dichtematrix nicht "lösen".
(Es ist nur eine Wiederholung der obigen Zitate.)
Aussage B: Quantenmechanische Unsicherheit kann nicht als bloße „Unwissenheit“ über ein System ausgedrückt werden.
(Ich bin sicher, dass dies aus allem, was wir über die Quantenmechanik wissen, selbstverständlich ist.)
Abschließend:
Daher: Unsicherheit in der Dichtematrix kann nicht als bloße „Unwissenheit“ über ein System ausgedrückt werden.
genth
Arnold Neumaier
N. Jungfrau
BebopButUnsteady
Arnold Neumaier
BebopButUnsteady