In der Physik wird Entropie normalerweise in Nats gemessen . Ich frage mich, ob es ein mögliches Modell eines physikalischen Systems gibt, das eine Entropie mit einer diskreten Anzahl von Nats hat.
Wie müssen Partikel und Freiheitsgrade angeordnet sein, damit dies geschieht?
Mich würde beides interessieren
Beispiel eines analogen (nicht diskreten) Systems
Beispiel eines Quantensystems
Das einfachste nicht-diskrete System ist ohne Zweifel die Entropie einer Zufallsvariablen, die auf einem Längenintervall einheitlich ist , zB das Intervall , Und außerhalb dieses Intervalls, so dass die Wahrscheinlichkeitsdichte konstant ist . Diese hat eine Entropie von Nat.
Eine ganze Zahl von Nats ist im Allgemeinen nicht sinnvoll. Zumindest habe ich so etwas noch nie in einer vernünftigen physikalischen oder mathematischen Situation gesehen. In dieser Hinsicht sind sie dem Bogenmaß ziemlich ähnlich: Man sieht sich selten, wenn überhaupt, mit einem Winkel von genau einem Bogenmaß konfrontiert, aber wir verwenden sie trotzdem, weil sie die Mathematik vereinfachen.
Das heißt nicht, dass Sie sich kein Beispiel ausdenken können. Zum Beispiel sagt mir Wolfram|Alpha, dass ein diskretes System mit drei Zuständen eine Entropie von einem nat if hat
Dies kann leicht auf ein Quantenbeispiel erweitert werden, indem man ein im Zustand präpariertes Zwei-Spin-System betrachtet mit Wahrscheinlichkeit und ähnlich , Und , mit wie oben definiert. Dann befindet es sich in einem gemischten Zustand mit einer von Neumann-Entropie von einem nat.
Wenn mir eine einfache Möglichkeit einfällt, ein nicht-diskretes Beispiel zu konstruieren, werde ich diesen Beitrag aktualisieren, aber ich garantiere, dass es sich genauso konstruiert anfühlen wird wie die diskreten und Quantenbeispiele. Wir verwenden Nats, weil sie die Notwendigkeit der Boltzmann-Konstante vermeiden, nicht wegen der Menge ist eine sinnvolle.
Die folgende Antwort basiert auf einer Beobachtung des Fragestellers dieser Frage, die hier und hier zu finden ist , obwohl der Kontext etwas anders ist. (Als ich es schrieb, war mir nicht bewusst, dass diese Fragen von derselben Person wie diese Frage geschrieben wurden, aber ich denke dennoch, dass es eine nützliche Antwort für zukünftige Referenzen ist.)
Im Widerspruch zu meiner vorherigen Antwort gibt es ein schönes natürliches Beispiel wo entsteht als Menge an Informationen. Es entsteht eher als bedingte Entropie als als Entropie, aber ich denke, es ist immer noch interessant. Natürlich können Sie es in ein einziges Nat verwandeln, indem Sie einfach zwei unabhängige Kopien desselben Systems erstellen. Dies ist ein rein mathematisches Beispiel, aber es ist so einfach, dass man sich leicht vorstellen kann, dass es in einem physikalischen Kontext auftaucht.
Lassen eine Zufallsvariable sein, die gleichmäßig auf das Intervall verteilt ist . Lassen eine diskrete Zufallsvariable mit Werten sein , korreliert so dass . (Oder anders ausgedrückt ist eine Zufallsvariable, deren Wahrscheinlichkeit gleichmäßig verteilt ist .)
Es ist klar, dass die Entropie von ist ein Bit, und die Entropie von weicht ab. (Oder, wenn Sie es vorziehen, Shannons kontinuierliche Entropie zu verwenden, ist sie gleich einem Bit.) Wir können jedoch auch nach dem Wert der bedingten Entropie fragen , was (informell gesprochen) die erwartete Menge an Unsicherheit ist, die in der Variablen verbleibt nach dem Lernen der Wert von . Es ist definiert als
oder
Gegeben seien zwei identische, unabhängige Systeme dieser Form mit Variablen Und , die bedingte Entropie .
Es ist auch sinnvoll, nach dem Wert der gegenseitigen Information zwischen den beiden Variablen zu fragen Und . Dies wird durch gegeben , oder .
Ein physikalischeres Beispiel für eine One-Nat-Menge finden Sie in dieser Frage von Mark Eichenlaub. Ich versuche gerade herauszufinden, ob es einen Zusammenhang zwischen diesem physikalischen Beispiel und dem mathematischen gibt, das ich gerade vorgestellt habe.
Anixx