Ich habe kürzlich dieses Video über Information und Zufälligkeit gesehen. Irgendwann heißt es, dass ein vollständig vorhersagbares Universum gegen den zweiten Hauptsatz der Thermodynamik verstoßen würde, weil dies implizieren würde, dass die Gesamtinformation des Universums über die Zeit erhalten bleiben würde, was zu einem Universum mit konstanter Entropie führen würde. Außerdem heißt es, dass die zusätzliche Information, die die Entropie erhöht, von der QM-Zufälligkeit stammt.
Ich erkenne an, dass es eine wirklich faszinierende Theorie ist, aber ist sie wahr? Ist die Äquivalenz zwischen Information und Entropie sinnvoll?
Die Beziehung zwischen Entropie und Information ist wohlbekannt; Tatsächlich ist die Shannon-Entropie das grundlegende Maß für die Informationen in einem System.
Die andere Frage nach Bestimmtheit und Information ist komplexer und noch komplexer, wenn sie auf das gesamte Universum ausgedehnt wird. Lassen wir vorerst die Tatsache beiseite, dass die Quantenmechanik – unter konventionellen Interpretationen – eine inhärente Unbestimmtheit zu suggerieren scheint.
Wir gehen von der klassischen thermodynamischen Entropie aus: „Maxwells Dämon“ ist eine hypothetische Entität mit „perfektem Wissen“ eines Systems, das in der Lage ist, Moleküle nach ihrer Energie zu sortieren, aber Landauer zeigte, dass ein solches Wesen, um zu funktionieren, selbst hätte um die Nettoentropie zu erhöhen. Insbesondere bei einer logisch irreversiblen Informationsänderung erfahren andere Freiheitsgrade eine Entropieerhöhung. Denken Sie naiv an die CPU Ihres Computers, die heiß wird. Das bedeutet , dass wir zumindest nicht weniger werden, wenn wir unsere Vorschläge in unserer „Theorie von allem“ für dieses deterministische Universum durchwühlendie Entropie, die nach dem zweiten Hauptsatz in Ordnung ist: Betrachten Sie ein isoliertes System, das ein thermodynamisches Gleichgewicht erreicht hat, und überlegen Sie dann, ob Sie bereit sind zu akzeptieren, dass das Universum ein geschlossenes System sein könnte.
Die Quantenmechanik macht es kompliziert. Wenn man konventionellem Denken folgt, gibt es hier eine inhärente Zufälligkeit. Wenn wir insbesondere die Einheitlichkeit akzeptieren (d. h. die Summe möglicher Wahrscheinlichkeiten von Messergebnissen ist 1, ziemlich unumstritten), dann haben wir dank Everett einen Beweis dafür, dass das zweite Gesetz impliziert ist (das Theorem ist unabhängig von seinen „vielen Welten“. '-Interpretation, die eher ein Versuch ist, zu erklären, was die Implikationen sind) -- S. 122 hier .
Zusammenfassend sagt uns dies, dass die klassische Thermodynamik unter einigen Einschränkungen mit einem bestimmten Universum übereinstimmt , aber der eigentliche Grund, warum QM sagt, dass das Universum nicht bestimmt ist, ist genau eine Erklärung des zweiten Hauptsatzes. Können wir daraus schließen, dass QM die alleinige Ursache istvon diesem? Unter der Annahme, dass QM eine vollständige Theorie ist, dann ja. Wir wissen, dass es das nicht ist, in dem Sinne, dass es uns nicht alles sagt, was wir gerne über die Welt wissen würden – aber die meisten Versuche, es zu erweitern, um zum Beispiel die Allgemeine Relativitätstheorie einzubeziehen, und sicherlich das Glaubwürdige diejenigen, akzeptieren die gleiche Annahme der Unitarität und das Unsicherheitsprinzip und so weiter. Wenn diese Theorien, wie die Stringtheorie, nicht dazu führen, einen anderen Mechanismus einzuführen, durch den die Entropie unabhängig von der QM-Zufälligkeit zunehmen würde, dann ist das tatsächlich die Ursache.
Hier gibt es viele Missverständnisse, also gehen wir einen Schritt nach dem anderen vor. Die Entropie in der klassischen Mechanik heißt Gibbs-Entropie,
Dies ist im Wesentlichen dasselbe wie die Shannon-Entropie für physikalische Systeme. Mit diesem Konzept kann man die Kenntnis von Wahrscheinlichkeiten von etwas als "Information" ansehen. Es ist wirklich nur ein anderer Name für das Wissen über Wahrscheinlichkeiten, je mehr Ihr Wissen über Wahrscheinlichkeiten also die möglichen Ergebnisse einschränkt, desto mehr "Informationen" haben Sie. In diesem Sinne kann man Entropie als Mangel an Information ansehen – je mehr Entropie ein System hat, desto weniger weiß man darüber. Bitte seien Sie nicht verwirrt, wenn Sie sagen, dass "Informationen" mit Entropie zusammenhängen. So definieren wir Information - über die Kenntnis von Wahrscheinlichkeitsverteilungen.
Sagen Sie als Beispiel, dass Sie haben , , usw. Das bedeutet, dass Sie wissen, dass Ihr System in Ordnung ist mit 100%iger Sicherheit und Ihre "Informationen" über das System sind maximal (weil Sie genau wissen, in welchem Zustand es sich befindet) und daher ist die Entropie 0.
Abgesehen davon gibt es in unserem Universum zwei mögliche Quellen der Zufälligkeit:
Zufälligkeit der zeitlichen Entwicklung – was bedeutet, dass sich das System auf zufällige Weise entwickelt. Dies ist für geschlossene Systeme weder in der klassischen noch in der Quantenphysik der Fall. Daher kann eine einfache Evolution in der Zeit die Entropie in beiden Theorien nicht erhöhen, und Informationen werden immer konserviert.
Zufälligkeit der Anfangsbedingungen des Systems - Dies ist in der Tat ein grundlegendes Konzept in der Quantenphysik, das Sie im Allgemeinen immer haben werden.
Nun gilt die oben erwähnte Entropie nicht allgemein in der Quantenphysik. Vielmehr ersetzt man sie durch ihre Verallgemeinerung, die von Neumann-Entropie,
Der zweite Hauptsatz der Thermodynamik gilt sowohl für Quanten- und klassische Systeme als auch für Quanten- und klassische Entropie, daher ist die Aussage „dass die zusätzliche [sic] Information, die die Entropie erhöht, von der QM-Zufälligkeit kommt“ nicht wahr, weil sie nicht erklären kann, warum wir immer noch Entropie sehen steigen, selbst wenn wir nur die klassische Zufälligkeit als Entropie zählen (von-Neumann-Entropie). Tatsächlich müssen Sie, um das zweite Gesetz abzuleiten, über geschlossene, isolierte Systeme hinausgehen, aber das ist ein anderes Problem. Der Punkt ist, dass die Berufung auf die Quantenphysik Ihnen nicht dabei helfen wird, den zweiten Hauptsatz abzuleiten.
selten
bobie
selten
selten