Natürliche Informationseinheiten

In der Physik wird Entropie normalerweise in Nats gemessen . Ich frage mich, ob es ein mögliches Modell eines physikalischen Systems gibt, das eine Entropie mit einer diskreten Anzahl von Nats hat.

Wie müssen Partikel und Freiheitsgrade angeordnet sein, damit dies geschieht?

Mich würde beides interessieren

  • Beispiel eines analogen (nicht diskreten) Systems

  • Beispiel eines Quantensystems

Es scheint, dass Nats eine besondere Rolle in Systemen im Planck-Maßstab spielen. Siehe diese Frage: physical.stackexchange.com/questions/98152/…

Antworten (3)

Das einfachste nicht-diskrete System ist ohne Zweifel die Entropie einer Zufallsvariablen, die auf einem Längenintervall einheitlich ist e , zB das Intervall [ 0 , e ] , Und 0 außerhalb dieses Intervalls, so dass die Wahrscheinlichkeitsdichte konstant ist e 1 . Diese hat eine Entropie von 1 Nat.

Ich liebe ein gutes triviales Beispiel. Hübsch!
@ user1504 Ich habe meine eigene Antwort hinzugefügt.

Eine ganze Zahl von Nats ist im Allgemeinen nicht sinnvoll. Zumindest habe ich so etwas noch nie in einer vernünftigen physikalischen oder mathematischen Situation gesehen. In dieser Hinsicht sind sie dem Bogenmaß ziemlich ähnlich: Man sieht sich selten, wenn überhaupt, mit einem Winkel von genau einem Bogenmaß konfrontiert, aber wir verwenden sie trotzdem, weil sie die Mathematik vereinfachen.

Das heißt nicht, dass Sie sich kein Beispiel ausdenken können. Zum Beispiel sagt mir Wolfram|Alpha, dass ein diskretes System mit drei Zuständen eine Entropie von einem nat if hat

P 1 = P 2 ln P 2 P 3 ln P 3 1 W ( P 2 ln P 2 P 3 ln P 3 1 ) ,
Wo W ist die Lambert-W-Funktion . Es ist schwer vorstellbar, dass so etwas in einer anderen Situation auftaucht als in einer, in der wir absichtlich versuchen, eine Entropie von einem nat zu konstruieren.

Dies kann leicht auf ein Quantenbeispiel erweitert werden, indem man ein im Zustand präpariertes Zwei-Spin-System betrachtet | 00 mit Wahrscheinlichkeit P 1 und ähnlich P ( | 01 ) = P 2 , P ( | 10 ) = P 3 Und P ( | 11 ) = 0 , mit P 1 P 3 wie oben definiert. Dann befindet es sich in einem gemischten Zustand mit einer von Neumann-Entropie von einem nat.

Wenn mir eine einfache Möglichkeit einfällt, ein nicht-diskretes Beispiel zu konstruieren, werde ich diesen Beitrag aktualisieren, aber ich garantiere, dass es sich genauso konstruiert anfühlen wird wie die diskreten und Quantenbeispiele. Wir verwenden Nats, weil sie die Notwendigkeit der Boltzmann-Konstante vermeiden, nicht wegen der Menge 1 Nat ist eine sinnvolle.

Ich habe meine eigene Antwort hinzugefügt

Die folgende Antwort basiert auf einer Beobachtung des Fragestellers dieser Frage, die hier und hier zu finden ist , obwohl der Kontext etwas anders ist. (Als ich es schrieb, war mir nicht bewusst, dass diese Fragen von derselben Person wie diese Frage geschrieben wurden, aber ich denke dennoch, dass es eine nützliche Antwort für zukünftige Referenzen ist.)

Im Widerspruch zu meiner vorherigen Antwort gibt es ein schönes natürliches Beispiel wo 1 2 Nat entsteht als Menge an Informationen. Es entsteht eher als bedingte Entropie als als Entropie, aber ich denke, es ist immer noch interessant. Natürlich können Sie es in ein einziges Nat verwandeln, indem Sie einfach zwei unabhängige Kopien desselben Systems erstellen. Dies ist ein rein mathematisches Beispiel, aber es ist so einfach, dass man sich leicht vorstellen kann, dass es in einem physikalischen Kontext auftaucht.

Lassen Q eine Zufallsvariable sein, die gleichmäßig auf das Intervall verteilt ist [ 0 , 1 ] . Lassen X eine diskrete Zufallsvariable mit Werten sein { 0 , 1 } , korreliert Q so dass P ( X = 1 | Q = Q ) = Q . (Oder anders ausgedrückt X ist eine Zufallsvariable, deren Wahrscheinlichkeit Q gleichmäßig verteilt ist [ 0 , 1 ] .)

Es ist klar, dass die Entropie von X ist ein Bit, und die Entropie von Q weicht ab. (Oder, wenn Sie es vorziehen, Shannons kontinuierliche Entropie zu verwenden, ist sie gleich einem Bit.) Wir können jedoch auch nach dem Wert der bedingten Entropie fragen H ( X | Q ) , was (informell gesprochen) die erwartete Menge an Unsicherheit ist, die in der Variablen verbleibt X nach dem Lernen der Wert von Q . Es ist definiert als

0 1 P ( Q = Q ) H ( X | Q = Q ) ,

oder

0 1 D Q ( Q Protokoll Q + ( 1 Q ) Protokoll ( 1 Q ) ) = [ 1 2 ( X 2 Protokoll ( X ) + X + ( X 1 ) 2 Protokoll ( 1 X ) ) ] 0 1 = 1 2 Nat .

Gegeben seien zwei identische, unabhängige Systeme dieser Form mit Variablen X 1 , Q 1 Und X 2 , Q 2 , die bedingte Entropie H ( X 1 X 2 | Q 1 Q 2 ) = 2 H ( X | Q ) = 1 Nat .

Es ist auch sinnvoll, nach dem Wert der gegenseitigen Information zwischen den beiden Variablen zu fragen X Und Q . Dies wird durch gegeben ln 2 1 / 2 Nat , oder 1 1 2 Protokoll 2 e Bits .

Ein physikalischeres Beispiel für eine One-Nat-Menge finden Sie in dieser Frage von Mark Eichenlaub. Ich versuche gerade herauszufinden, ob es einen Zusammenhang zwischen diesem physikalischen Beispiel und dem mathematischen gibt, das ich gerade vorgestellt habe.

Ist es nicht dasselbe wie in meinem Beitrag hier: physical.stackexchange.com/questions/98067/… und hier physical.stackexchange.com/questions/98152/… ? Ich habe selbst schon geantwortet, aber die Moderatoren haben sie gelöscht.
Ja, du hast Recht, und im Nachhinein muss dein Post da sein, wo ich ihn her habe. (Ich habe mir damals Notizen gemacht und anscheinend vergessen zu notieren, wo ich es gefunden habe - sorry dafür.)
Können Sie die Antwort bitte ändern, um den Ursprung zu verdeutlichen?
Erledigt. (Ich hätte es schon früher getan, aber ich hatte es eilig.)