Ist diese Theorie über Universum und Information wahr?

Ich habe kürzlich dieses Video über Information und Zufälligkeit gesehen. Irgendwann heißt es, dass ein vollständig vorhersagbares Universum gegen den zweiten Hauptsatz der Thermodynamik verstoßen würde, weil dies implizieren würde, dass die Gesamtinformation des Universums über die Zeit erhalten bleiben würde, was zu einem Universum mit konstanter Entropie führen würde. Außerdem heißt es, dass die zusätzliche Information, die die Entropie erhöht, von der QM-Zufälligkeit stammt.

Ich erkenne an, dass es eine wirklich faszinierende Theorie ist, aber ist sie wahr? Ist die Äquivalenz zwischen Information und Entropie sinnvoll?

Danke, kannst du darauf antworten? Die Antwort von tech1 hat mein Verständnis des Themas erweitert, aber er hat meine Frage nicht genau beantwortet
Ihre Frage ist verwirrt, weil Sie den Ausschweifungen eines albernen Videos gefolgt sind. Könnten Sie bitte ein paar klare Fragen formulieren, die eindeutig beantwortet werden können? Vergessen Sie QM und sagen Sie, was Ihre Zweifel an Information, Entropie und Universum sind. Ich habe Ihren Titel bearbeitet, ich bin mir nicht sicher, ob Sie Ihren Gedanken interpretiert haben oder was Sie wirklich mit Universumsinformationen beabsichtigt haben.
Der Punkt ist genau die Rolle von QM-Zufälligkeit/Chaos beim Wachstum der gesamten Informationsentropie im Universum; Vielleicht hast du ein besseres Bild, wenn du dir das Video ansiehst. Und hören Sie bitte auf, Ihre Antworten auf meine Fragen als persönliche Angelegenheit zu nehmen. Arbeite für die Gemeinschaft, nicht für mich.
@alb, ja, es ist verwandt

Antworten (2)

Die Beziehung zwischen Entropie und Information ist wohlbekannt; Tatsächlich ist die Shannon-Entropie das grundlegende Maß für die Informationen in einem System.

Die andere Frage nach Bestimmtheit und Information ist komplexer und noch komplexer, wenn sie auf das gesamte Universum ausgedehnt wird. Lassen wir vorerst die Tatsache beiseite, dass die Quantenmechanik – unter konventionellen Interpretationen – eine inhärente Unbestimmtheit zu suggerieren scheint.

Wir gehen von der klassischen thermodynamischen Entropie aus: „Maxwells Dämon“ ist eine hypothetische Entität mit „perfektem Wissen“ eines Systems, das in der Lage ist, Moleküle nach ihrer Energie zu sortieren, aber Landauer zeigte, dass ein solches Wesen, um zu funktionieren, selbst hätte um die Nettoentropie zu erhöhen. Insbesondere bei einer logisch irreversiblen Informationsänderung erfahren andere Freiheitsgrade eine Entropieerhöhung. Denken Sie naiv an die CPU Ihres Computers, die heiß wird. Das bedeutet , dass wir zumindest nicht weniger werden, wenn wir unsere Vorschläge in unserer „Theorie von allem“ für dieses deterministische Universum durchwühlendie Entropie, die nach dem zweiten Hauptsatz in Ordnung ist: Betrachten Sie ein isoliertes System, das ein thermodynamisches Gleichgewicht erreicht hat, und überlegen Sie dann, ob Sie bereit sind zu akzeptieren, dass das Universum ein geschlossenes System sein könnte.

Die Quantenmechanik macht es kompliziert. Wenn man konventionellem Denken folgt, gibt es hier eine inhärente Zufälligkeit. Wenn wir insbesondere die Einheitlichkeit akzeptieren (d. h. die Summe möglicher Wahrscheinlichkeiten von Messergebnissen ist 1, ziemlich unumstritten), dann haben wir dank Everett einen Beweis dafür, dass das zweite Gesetz impliziert ist (das Theorem ist unabhängig von seinen „vielen Welten“. '-Interpretation, die eher ein Versuch ist, zu erklären, was die Implikationen sind) -- S. 122 hier .

Zusammenfassend sagt uns dies, dass die klassische Thermodynamik unter einigen Einschränkungen mit einem bestimmten Universum übereinstimmt , aber der eigentliche Grund, warum QM sagt, dass das Universum nicht bestimmt ist, ist genau eine Erklärung des zweiten Hauptsatzes. Können wir daraus schließen, dass QM die alleinige Ursache istvon diesem? Unter der Annahme, dass QM eine vollständige Theorie ist, dann ja. Wir wissen, dass es das nicht ist, in dem Sinne, dass es uns nicht alles sagt, was wir gerne über die Welt wissen würden – aber die meisten Versuche, es zu erweitern, um zum Beispiel die Allgemeine Relativitätstheorie einzubeziehen, und sicherlich das Glaubwürdige diejenigen, akzeptieren die gleiche Annahme der Unitarität und das Unsicherheitsprinzip und so weiter. Wenn diese Theorien, wie die Stringtheorie, nicht dazu führen, einen anderen Mechanismus einzuführen, durch den die Entropie unabhängig von der QM-Zufälligkeit zunehmen würde, dann ist das tatsächlich die Ursache.

Was ist mit der Entropie/Informationsäquivalenz? Ist es sinnvoll?
Hängt davon ab, welche Entropie: Shannon-Entropie und Information (im Sinne der „Informationstheorie“) sind untrennbar; sie wurden gemeinsam definiert. Thermodynamische Entropie und Information scheinen nicht nur mathematisch, sondern auch intuitiv sehr eng miteinander verbunden zu sein. Sie unterscheiden sich jedoch geringfügig: Bei der Informationsentropie geht es darum, ob Ereignisse aufgetreten sind, bei der thermodynamischen Entropie geht es jedoch speziell um die Wahrscheinlichkeit (Ergebnis vs. Prozess). Eine interessante Vorstellung davon, wie intim die Beziehung sein kann, finden Sie hier .
Oh Entschuldigung, ich dachte, es wäre klar, ich sprach von thermodynamischer Entropie
„Aber gerade der Grund, warum QM sagt, dass das Universum nicht determiniert ist, ist genau eine Erklärung des zweiten Hauptsatzes. Können wir daraus schließen, dass QM die einzige Ursache dafür ist? Unter der Annahme, dass QM eine vollständige Theorie ist, dann ja.“ Warum können wir dann den zweiten Hauptsatz in der klassischen statistischen Physik beweisen?

Hier gibt es viele Missverständnisse, also gehen wir einen Schritt nach dem anderen vor. Die Entropie in der klassischen Mechanik heißt Gibbs-Entropie,

S = k B ich P ich ln P ich ,
Wo P ich ist die Wahrscheinlichkeit eines Mikrozustands ich .

Dies ist im Wesentlichen dasselbe wie die Shannon-Entropie für physikalische Systeme. Mit diesem Konzept kann man die Kenntnis von Wahrscheinlichkeiten von etwas als "Information" ansehen. Es ist wirklich nur ein anderer Name für das Wissen über Wahrscheinlichkeiten, je mehr Ihr Wissen über Wahrscheinlichkeiten also die möglichen Ergebnisse einschränkt, desto mehr "Informationen" haben Sie. In diesem Sinne kann man Entropie als Mangel an Information ansehen – je mehr Entropie ein System hat, desto weniger weiß man darüber. Bitte seien Sie nicht verwirrt, wenn Sie sagen, dass "Informationen" mit Entropie zusammenhängen. So definieren wir Information - über die Kenntnis von Wahrscheinlichkeitsverteilungen.

Sagen Sie als Beispiel, dass Sie haben P 1 = 1 , P 2 = 0 , P 3 = 0 usw. Das bedeutet, dass Sie wissen, dass Ihr System in Ordnung ist ich = 1 mit 100%iger Sicherheit und Ihre "Informationen" über das System sind maximal (weil Sie genau wissen, in welchem ​​Zustand es sich befindet) und daher ist die Entropie 0.

Abgesehen davon gibt es in unserem Universum zwei mögliche Quellen der Zufälligkeit:

  1. Zufälligkeit der zeitlichen Entwicklung – was bedeutet, dass sich das System auf zufällige Weise entwickelt. Dies ist für geschlossene Systeme weder in der klassischen noch in der Quantenphysik der Fall. Daher kann eine einfache Evolution in der Zeit die Entropie in beiden Theorien nicht erhöhen, und Informationen werden immer konserviert.

  2. Zufälligkeit der Anfangsbedingungen des Systems - Dies ist in der Tat ein grundlegendes Konzept in der Quantenphysik, das Sie im Allgemeinen immer haben werden.

Nun gilt die oben erwähnte Entropie nicht allgemein in der Quantenphysik. Vielmehr ersetzt man sie durch ihre Verallgemeinerung, die von Neumann-Entropie,

S = T R ( ρ ln ρ ) ,
Wo ρ ist die Dichtematrix (die sowohl klassische als auch quantenmechanische Unsicherheiten über das System codiert). Befindet sich das System nun in einem sogenannten reinen Zustand, d. h. es gibt keine klassische Unbestimmtheit und wird durch eine Wellenfunktion beschrieben, dann ist die Entropie 0. Sie sehen also, nur die alte Idee des klassischen Zufalls beeinflusst die Wert der Entropie. Die neue Quantenzufälligkeit ist grundlegend. Sie können es nicht vermeiden, aber wenn Sie nur Quantenzufälligkeit haben, ist die Entropie immer noch 0.

Der zweite Hauptsatz der Thermodynamik gilt sowohl für Quanten- und klassische Systeme als auch für Quanten- und klassische Entropie, daher ist die Aussage „dass die zusätzliche [sic] Information, die die Entropie erhöht, von der QM-Zufälligkeit kommt“ nicht wahr, weil sie nicht erklären kann, warum wir immer noch Entropie sehen steigen, selbst wenn wir nur die klassische Zufälligkeit als Entropie zählen (von-Neumann-Entropie). Tatsächlich müssen Sie, um das zweite Gesetz abzuleiten, über geschlossene, isolierte Systeme hinausgehen, aber das ist ein anderes Problem. Der Punkt ist, dass die Berufung auf die Quantenphysik Ihnen nicht dabei helfen wird, den zweiten Hauptsatz abzuleiten.

Gilt die „Zufälligkeit der Anfangsbedingungen“ nicht auch für die klassische Physik? Es scheint auch klar zu sein, warum die einheitliche und deterministische Evolution des Quantenzustands keine Zufälligkeit in der Zeitentwicklung impliziert, aber das Phänomen des "Kollaps der Wellenfunktion" bleibt. Ich denke, es ist eine interessante Behauptung, dass (ich folgere hier aus Ihrem Argument) die Zufälligkeit beim Zusammenbruch der Wellenfunktion Anfangsbedingungen zugeordnet werden kann. Könnten Sie das näher erläutern?
@adipy Ja, der Unterschied besteht darin, dass diese Zufälligkeit in der Quantenphysik von grundlegender Bedeutung ist. Danke für die Frage, ich habe die Aussage präzisiert. In der klassischen stochastischen Physik gibt es keinen Wellenfunktionskollaps oder es gibt so viel Wellenfunktionskollaps wie in der Quantenphysik. Die Dekohärenz nimmt allgemeine „quantenklassische“ Versionen von Wahrscheinlichkeiten, dh Dichtematrizen, und verwandelt sie in reguläre klassische Wahrscheinlichkeitsverteilungen. Man misst dann das Ergebnis – das ist dann dasselbe, als würde man schauen, auf welche Seite die Münze bei einem Münzwurf gefallen ist. Es gibt keinen Unterschied. Forts.
Forts. Dies bedeutet, dass die klassische Definition von Zufälligkeit und Entropie davon abhängt, was Sie messen möchten. Wenn Sie also die klassische Entropie definieren können, wenn Sie beabsichtigen, Energie zu messen (oder eine Observable, die mit dem Hamilton-Operator pendelt), da die einheitliche Zeitentwicklung des Hamilton-Operators sie eindeutig lässt, aber für allgemeinere Messungen müssen Sie die von Neumann-Entropie verwenden
Wenn ich fragen darf, warum die Ablehnung?
@Alb, ich habe einen Satz zur Erläuterung hinzugefügt. Sie haben das gleiche Problem in der Quantenphysik, da die Evolution in der Zeit immer noch deterministisch ist. Wenn das System eine rein einheitliche Evolution durchmacht (dh keine Dekohärenz, ist geschlossen), dann kann die Entropie nicht zunehmen!