Gibt es eine Äquivalenz zwischen Information, Energie und Materie?

Betrachten Sie die physische Welt als aus Informationen bestehend, mit Energie und Materie als Nebensächlichkeiten.

Diese Aussage muss in den Kontext des holographischen Prinzips und der Arbeiten von Bekenstein gestellt werden ...

In der Tat, so Bekenstein

Die thermodynamische Entropie und die Shannon-Entropie sind konzeptionell äquivalent.

Die Anzahl der Anordnungen, die von der Boltzmann-Entropie gezählt werden, spiegelt die Menge an Shannon-Informationen wider, die benötigt würden, um eine bestimmte Anordnung zu implementieren ...

...von Materie und Energie

Der einzige grundlegende Unterschied zwischen der thermodynamischen Entropie der Physik und der Entropie von Shannon liegt in den Maßeinheiten; die erste wird in Energieeinheiten dividiert durch die Temperatur ausgedrückt, die zweite in „Bits“ von Informationen, die im Wesentlichen dimensionslos sind.

Darüber hinaus behauptet die Bekenstein-Grenze, dass es ein Maximum an Informationen gibt, die potenziell in einem bestimmten Raumbereich gespeichert werden können, der eine endliche Energiemenge hat, ähnlich dem holografischen Prinzip, und dass dies schließlich zurückkehrt, um zu sagen, dass das Ultimative Partikel ist ein Informationsbit (1 oder 0).

Können wir von einer Äquivalenz von Information, Energie und Materie sprechen ...?

BEARBEITEN:

Um den Kontext zu erweitern, ...

Energie und Materie

Wie uns Einstein gezeigt hat, E = MC^2, gibt es eine Äquivalenz zwischen Masse und Energie

Informationen sind Energie

Information ist eine Form von Energie; In der Tat braucht es Energie, um Informationen zu speichern oder zu übertragen

und für seine Gegenleistung

Energie ist Information

Tatsächlich tragen Photonen, die von jeder Quelle in Form von Strahlung wie beispielsweise Sternen emittiert werden, Informationen über die Quelle selbst, ihren Ort in Raum und Zeit, ihre Farben und Temperaturen, ihre atomare und molekulare Zusammensetzung, ihre Rotationsgeschwindigkeit und ihre Bewegungsrichtung, ..

Antworten (2)

Der erste Gedanke, der mir beim Lesen in den Sinn kommt, ist die Bekenstein-Hawking-Entropie eines Schwarzen Lochs, die die Entropie eines Schwarzen Lochs mit der Fläche seines Ereignishorizonts (der wiederum durch seine Masse/Energie definiert ist) in Beziehung setzt. Wenn wir diese Entropie des Schwarzen Lochs mit Informationen verbinden wollen, haben einige Leute argumentiert, dass dies aus der Quantenverschränkung entsteht . Mein Wissen darüber ist grob, aber der verlinkte arXiv-Artikel kann helfen. Ich verbinde Verschränkung mit Information, denn wenn wir über verschränkte Quantensysteme nachdenken, gibt uns ihre Verschränkung Informationen über das System oder dessen Fehlen.

Wir können die Frage aber auch klassisch thermodynamisch / statistisch-mechanisch interpretieren. In diesem Fall haben wir die Entropiemengen S und innere Energie U , die (über das erste Gesetz) in Beziehung gesetzt werden können: D U = T D S + D W . Diese Version der Entropie hängt mit der Shannon-Entropie durch einen konstanten Faktor zusammen ( k B / ln 2 ?) als S = k B ln Ω , Wo Ω sind alle möglichen Zustände, in denen sich das System befinden kann. Wenn wir Materie von Masse trennen wollen , könnten wir von einzelnen Teilchen sprechen (z. B. solchen, die ein Gas bilden), in welchem ​​Fall ihre Vielfachheit (Menge an Materie) die Entropie von bestimmt das komplette System S . S ist ein Maß dafür, wie gut wir die Zustände jeder Materieeinheit kennen. Es gibt auch einen Wettbewerb zwischen Entropie S und innere Energie U , wobei sich das System bei niedrigen Temperaturen in einem Zustand befindet, in dem U minimiert wird, jedoch bei hohen Temperaturen S wird minimiert.

Die Thermodynamik ist nur in Gleichgewichten gut definiert, aber betrachten wir ein System, das sich willkürlich von Zustand A nach Zustand B bewegt. Zwischen den Zuständen A und B besteht eine Differenz der freien Energie. Die Arbeit, die erforderlich ist, um den Zustand von A nach B zu verschieben, kann größer sein als die freie Energiedifferenz (z. B. durch Reibung). Indem wir das erste Gesetz umschreiben, sehen wir, dass diese verlorene ("verschwendete") Arbeit durch eine Zunahme der Entropie erklärt werden muss. So könnte man die Arbeit gleichsetzen W einen Prozess zu einer Erhöhung der Unsicherheit zu treiben S . Aber in solchen dynamischen Prozessen ist die Definition der Entropie ein Bereich aktiver Studien, also müssen wir mit unseren Worten vorsichtig sein.

Aber all dies hängt vom Kontext ab. Was ist die interessierende Energie oder Information? In Bezug auf Ihre beiden direkten Fragen sehen wir aus der klassischen thermodynamischen Beschreibung, dass die Entropie S hängt tatsächlich mit der durchschnittlichen Anzahl von Bits zusammen, die zur Beschreibung des Systems benötigt werden (Shannon-Entropie). Die zweite auf eine Einschränkung der Informationsdichte kann aus der Bekenstein-Hawking-Entropie/Verschränkungsentropie eines Schwarzen Lochs geschlossen werden (Da die Größe des Schwarzen Lochs die Grenze ist).

Ein Artikel von Melvin M. Vopson aus dem Jahr 2019 stellt eine Theorie für ein Masse-Energie-Informations-Äquivalenzprinzip auf und schlägt ein Experiment vor, um es zu testen.

https://aip.scitation.org/doi/10.1063/1.5123794

Aus dem Papier:

Die geschätzte Masse eines Informationsbits bei T = 2,73 K ist m_{bit} = 2,91 × 10^{-40} Kg.