Ist Informationsentropie dasselbe wie thermodynamische Entropie?

Kontext

In einem seiner beliebtesten Bücher Guards! Wachen! , macht Terry Pratchett einen Entropie-Witz:

Wissen ist gleich Macht, was gleich Energie ist, was gleich Masse ist

Pratchett ist ein Fantasy-Komiker und jeder dritte Satz in seinem Buch ist ein Witz, daher gibt es keinen guten Grund, das zu glauben. Pratchett nutzt diesen Wahnsinn, um zu kompensieren, dass eine riesige Bibliothek einen enormen Gravitationsschub hat.

Die Frage

Ich arbeite mit Computern und meistens mit Verschlüsselung . Meine Arbeitskollegen glauben der Aussage von Terry Pratchett wegen der Entropie . Andererseits glaube ich , dass es falsch ist, da die Informationsentropie eine andere Entropie ist als die , die in der Thermodynamik verwendet wird.

Hab ich recht? Und wenn ja, warum verwendet man denselben Namen ( Entropie ) für zwei verschiedene Dinge?

Was wäre auch eine gute Möglichkeit zu erklären, dass diese beiden "Entropien" für Nichtwissenschaftler (dh Menschen ohne Chemie- oder Physikhintergrund) unterschiedliche Dinge sind?

Maxwells Dämonen-Gedankenexperiment beweist, dass Sie falsch liegen. Wie Landauer gezeigt hat, bedeutet die Tatsache, dass reversible Berechnungen und interaktionsfreie Messungen möglich sind, dass Sie die Entropie eines thermodynamischen Systems senken können, um den Preis dafür zu zahlen, dass Sie die Informationsentropie des Computerspeichers um mindestens den gleichen Betrag erhöhen.
Der Versuch herauszufinden, auf welche Weise eine Aussage, die nie im wissenschaftlichen Sinne wahr sein sollte, versagt, ist ein fruchtloses Unterfangen. Gehen Sie und genießen Sie Pratchetts wunderbare Bücher, anstatt die wissenschaftliche Wahrheit unwissenschaftlicher Aussagen zu diskutieren.
von Neumann an Shannon: „Sie sollten es aus zwei Gründen Entropie nennen. Erstens wurde Ihre Unschärfefunktion in der statistischen Mechanik unter diesem Namen verwendet, also hat sie bereits einen Namen. Zweitens und wichtiger, niemand weiß, was Entropie wirklich ist, also wirst du in einer Debatte immer im Vorteil sein."
@lemon: Sie haben den Vorteil, bis jemand sagt d S = d Q r e v / T und dann verstehst du entweder die Thermodynamik für immer oder du hast keine Argumente mehr.
Der Unterschied hängt davon ab, ob Sie Kenntnisse über vorbereitete Quantenzustände eines Systems haben oder nicht. Für die klassische Thermodynamik haben Sie kein solches Wissen, also ist Entropie "thermisch". Wenn Sie Kenntnisse über Mikrozustände oder Quantenzustände haben, dann handelt es sich um Informationsentropie oder Verschränkungsentropie. Am Ende ist thermische Entropie Informationsentropie, und all dies ist letztendlich Verschränkungsentropie.
@CountIblis: Der Speicher in diesen Systemen ist jedoch auch ein thermodynamisches System, also bauen Sie wirklich nur eine thermodynamische / rechnerische Rube-Goldberg-Maschine.
@CountIblis - Das Lesen von Maxwells Dämonen-Gedankenexperiment gab mir ein neues Verständnis von Entropie, danke. Das obwohl Experiment ist genau das, was ich brauchte. Andererseits habe ich den Eindruck, mit dieser Frage hier die Büchse der Pandora geöffnet zu haben. Ich bin jetzt sehr neugierig, was die verschiedenen Physiker hier über Information vs. thermische Entropie denken.
@grochmal Das ist sicher eine interessante Frage. Man kann die thermodynamische Entropie an die erste Stelle setzen und die Informationsentropie als Teilmenge bezeichnen, da sie immer in den Positionen von Atomen gespeichert ist. Oder man kann die Informationsentropie an die erste Stelle setzen und sagen, dass Atompositionen nur eine Art von Information sind. Ich bin neutral, aber Leute mit mehr Physik-Hintergrund bevorzugen ersteres, während diejenigen mit mehr CS-Hintergrund letzteres bevorzugen.
Wie Sie in dem riesigen Kommentarthread gesehen haben, wird es ziemlich parteiisch, ich denke, weil es einen Punkt des Stolzes für das gesamte Fachgebiet darin gibt - dh die Leute benutzen es, um zu sagen: "Alle CS / Physik ist wirklich nur Physik / CS".
Aus neutraler Sicht denke ich, dass es keine große Sache ist. Wenn Sie die Analogie so oder so gehen lassen, haben Sie mehr Möglichkeiten, über Dinge nachzudenken, es ist eine Win-Win-Situation.
"Meine Arbeitskollegen glauben der Aussage von Terry Pratchett wegen der Entropie." Das ist rätselhaft. Können Sie erläutern, wie das Konzept der Entropie (welches auch immer) auf die Gültigkeit der zitierten Aussage hinweist?
@Ján: das ist überhaupt nicht rätselhaft. Wie von Neumann Shannon sagte, als Shannon fragte, wie man diese Größe nennen sollte: „Sie sollten sie aus zwei Gründen Entropie nennen. Erstens wurde Ihre Unsicherheitsfunktion in der statistischen Mechanik unter diesem Namen verwendet. Zweitens und wichtiger , niemand weiß, was Entropie wirklich ist, also wirst du in einer Debatte immer im Vorteil sein." Mit Entropie können Sie also niemals ein Argument verlieren.
Wissen ist Macht, Zeit ist Geld. Macht = Arbeit / Zeit, also Wissen = Arbeit / Geld. Je mehr Sie arbeiten und je weniger Sie bezahlt werden, desto mehr lernen Sie!

Antworten (4)

Pratchetts Zitat scheint sich also eher um Energie als um Entropie zu drehen. Ich nehme an, Sie könnten etwas anderes behaupten, wenn Sie annehmen, dass "Entropie Wissen ist", aber ich denke, das ist genau umgekehrt: Ich denke, dass Wissen ein Sonderfall niedriger Entropie ist. Aber deine Frage ist trotzdem interessant.

Die Entropie S in der Thermodynamik bezieht sich auf die Anzahl nicht unterscheidbarer Zustände, die ein System einnehmen kann. Wenn alle nicht unterscheidbaren Zustände gleich wahrscheinlich sind, ist die Anzahl der mit einem System verbundenen "Mikrozustände". Ω = exp ( S / k ) , wo die Konstante k 25 m e v / 300 K bezieht sich auf die Energiemenge, die von thermodynamischen Systemen bei verschiedenen Temperaturen ausgetauscht wird.

Das kanonische Beispiel ist ein Glas Pennies. Angenommen, ich lasse 100 Münzen auf den Boden fallen. Es gibt 100 Möglichkeiten, wie ich Heads-up und den Rest Tails-up haben kann; es gibt 100 99 / 2 Möglichkeiten, zwei Köpfe zu haben; es gibt 10 99 98 / 6 Möglichkeiten, drei Köpfe zu haben; es gibt ungefähr 10 28 Möglichkeiten, vierzig Köpfe zu haben, und 10 29 Möglichkeiten, fünfzig Köpfe zu haben. Wenn Sie ein Glas Pennys fallen lassen, werden Sie sie nicht zu 3% Heads-up finden, genauso wenig wie Sie vom Blitz getroffen werden, während Sie sich einen Royal Flush austeilen: Es gibt einfach zu viele andere Alternativen.

Die Verbindung zur Thermodynamik entsteht, wenn nicht alle meiner Mikrozustände die gleiche Energie haben, sodass mein System durch Übergänge Energie mit seiner Umgebung austauschen kann. Nehmen wir zum Beispiel an, meine 100 Cent liegen nicht auf dem Boden meiner Küche, sondern auf der Bodenplatte meines Pick-ups mit dem unwuchtigen Reifen. Die Vibration bedeutet, dass jeder Cent umkippen kann, was die Verteilung tendenziell in Richtung 50-50 treibt. Aber wenn es eine andere Wechselwirkung gibt, die Heads-up wahrscheinlicher macht als Tails-up, dann werde ich bei 50-50 nicht aufhören. Vielleicht habe ich einen obsessiven Passagier, der all die Schwänze umdreht. Wenn das Schütteln und zufällige Umdrehen langsam genug ist, dass er sie alle umdrehen kann, ist das effektiv "Nulltemperatur"; Wenn das Schütteln und zufällige Umdrehen so heftig ist, dass sich ein Penny normalerweise umdreht, bevor er den nächsten korrigiert, ist das "unendliche Temperatur". (Dies ist eigentlich ein Teil vondie Definition von Temperatur .)

Die Boltzmann-Entropie, die ich oben verwendet habe,

S B = k B ln Ω ,
ist genau dasselbe wie die Shannon-Entropie,
S S = k S ln Ω ,
außer dass Shannons Konstante ist k S = 1 ln 2 b ich t , so dass ein System mit zehn Bits Informationsentropie in jedem von sein kann Ω = 2 10 Zustände.

Das ist eine Aussage mit körperlichen Folgen. Angenommen, ich kaufe eine 2-Terabyte-SD-Karte ( anscheinend unterstützt dies der Standard ) und fülle sie mit vierzig Stunden Video von meinen Meerschweinchen, die Heu in Kot verwandeln. Indem Sie die Anzahl der möglichen Zustände der SD-Karte reduzieren Ω = 2 × 2 40 × 8 Zum einen sagt mir Boltzmanns Definition, dass ich die thermodynamische Entropie der Karte um reduziert habe Δ S = 2.6 m e v / K . Diese Entropiereduzierung muss durch eine gleiche oder größere Entropiezunahme anderswo im Universum ausgeglichen werden, und wenn ich dies bei Raumtemperatur mache, muss diese Entropiezunahme von einem Wärmefluss von begleitet werden Δ Q = T Δ S = 0,79 e v = 10 19 j Ö u l e .

Und hier stoßen wir auf praktische, experimentelle Beweise für einen Unterschied zwischen Information und thermodynamischer Entropie. Der Stromverbrauch beim Schreiben auf eine SD-Karte beträgt Milliwatt oder Watt, und das Übertragen meines vierzigstündigen Meerschweinchenfilms wird keine kurze Operation sein – das Extra 10 19 J , genug Energie, um einen einzelnen Infrarot-Atomübergang anzutreiben, die ich bezahlen muss, um jedes einzelne Bit auf der SD-Karte zu kennen, ist nichts im Vergleich zu den anderen Kosten für den Betrieb des Geräts.

Die Informationsentropie ist ein Teil, aber nicht annähernd die gesamte thermodynamische Entropie eines Systems. Die thermodynamische Entropie enthält Zustandsinformationen über jedes Atom jedes Transistors, aus dem jedes Bit besteht, und in jedem bistabilen System wird es viele, viele mikroskopische Konfigurationen geben, die "an" entsprechen, und viele, viele verschiedene mikroskopische Konfigurationen, die "aus" entsprechen ."


Neugierig fragt,

Wie kommt es, dass sich die Shannon-Entropie des Textes eines Shakespeare-Folios nicht mit der Temperatur ändert?

Dies liegt daran, dass jedes effektive Informationsspeichermedium bei einer effektiven Temperatur von Null arbeiten muss – andernfalls kippen Bits um und Informationen werden zerstört. Zum Beispiel habe ich ein Complete Works of Shakespeare, das ungefähr 1 kg Papier ist und eine Informationsentropie von vielleicht einigen Megabyte hat.

Das bedeutet, dass beim Drucken des Buches ein minimaler Mehraufwand an Energie von 10 25 J = 1 μ e v verbunden damit, diese Wörter in dieser Reihenfolge auf die Seite zu setzen und nicht in irgendeiner anderen. Zu wissen, was in dem Buch steht, reduziertseine Entropie. Zu wissen, ob das Buch zuerst Sonette ist oder zuerst spielt, reduziert seine Entropie weiter. Zu wissen, dass „Trip away/Make no stay/Meet me all by break of day“ auf Seite 158 steht, reduziert seine Entropie noch weiter, denn wenn sich Ihr Gehirn in einem Niedrig-Entropie-Zustand befindet, in dem Sie Midsummer Night's Dream kennen, wissen Sie, dass es so sein muss Beginnen Sie auf Seite 140 oder 150 oder so. Und wenn ich Ihnen jede dieser Tatsachen erzähle und gleichzeitig Ihre Entropie verringere, war dies mit einer zusätzlichen Energie von einem Bruchteil eines Nano-eV verbunden, die vollständig in meinem Gehirnstoffwechsel verloren ging, der mechanischen Energie meiner Finger, der Betriebsenergie meines Computers, der Betriebsenergie meiner Internetverbindung auf die Festplatte im Rechenzentrum von StackExchange, wo diese Antwort gespeichert ist, und so weiter.

Wenn ich die Temperatur dieses Gesamtwerks von 300 K auf 301 K erhöhe, erhöhe ich seine Entropie um Δ S = Δ Q / T = 1 k J / K , was vielen Yottabytes an Informationen entspricht; Das Buch ist jedoch geschickt arrangiert, so dass die desorganisierten Informationen die Anordnung der Wörter auf den Seiten nicht beeinflussen. Wenn ich jedoch versuche, in diesem Buch ein zusätzliches Megajoule Energie zu speichern, dann verwandelt es sich irgendwo auf seinem Weg zu einer Temperatur von 1300 Kelvin in einen Haufen Asche. Asche ist hochentropisch: Es ist unmöglich, die Asche von „Love’s Labors Lost“ von der Asche von „Timon of Athens“ zu unterscheiden.

Die Informationsentropie – die aus einem System entfernt wurde, in dem Informationen gespeichert sind – ist eine winzige Teilmenge der thermodynamischen Entropie, und Sie können Informationen nur in Teilen eines Systems zuverlässig speichern, die effektiv bei Nulltemperatur sind.


Ein einatomiges ideales Gas aus beispielsweise Argonatomen kann auch in Untersysteme unterteilt werden, bei denen die Entropie von der Temperatur abhängt oder nicht. Argonatome haben mindestens drei unabhängige Möglichkeiten, Energie zu speichern: Translationsbewegung, elektronische Anregungen und Kernanregungen.

Angenommen, Sie haben ein Mol Argonatome bei Raumtemperatur. Die Translationsentropie ist durch die Sackur-Tetrode-Gleichung gegeben und hängt von der Temperatur ab. Allerdings liegt der Boltzmann-Faktor für den ersten angeregten Zustand bei 11 eV

exp 11 e v k 300 K = 10 201
Daher ist die Anzahl der Argonatome im ersten (oder höheren) angeregten Zustand genau null und die Entropie im elektronischen Anregungssektor null. Die elektronische Anregungsentropie bleibt genau null, bis sich die Boltzmann-Faktoren für alle angeregten Zustände zu addieren 10 24 , so dass es im Mittel ein angeregtes Atom gibt; das passiert irgendwo um die Temperatur
T = 11 e v k ln 10 24 = 2500 K .
Wenn Sie also die Temperatur Ihres Argonmols von 300 K auf 500 K erhöhen, ändert sich die Anzahl der angeregten Atome in Ihrem Mol von genau null auf genau null, was rein thermodynamisch unabhängig von der Temperatur eine Null-Entropie-Konfiguration ist Prozess.

Ebenso ist selbst bei Zehntausenden von Kelvin die in den Kernanregungen gespeicherte Entropie null, da die Wahrscheinlichkeit, einen Kern im ersten angeregten Zustand bei etwa 2 MeV zu finden, um viele Größenordnungen kleiner ist als die Anzahl der Atome in Ihrer Probe.

Ebenso ist die thermodynamische Entropie der Informationen in meinen Gesamtwerken von Shakespeare, wenn nicht null, sehr gering: Es gibt eine kleine Anzahl von Textkonfigurationen, die eher einem Gesamtwerk von Shakespeare als einem Herr der Ringe oder einem Ulysses entsprechen oder ein Don Quijote aus dem gleichen Material mit gleicher Masse. Die Informationsentropie ("Shakespeares Complete Works füllen ein paar Megabyte") sagt mir die minimale thermodynamische Entropie, die aus dem System entfernt werden musste , um es in Shakespeares Complete Works zu organisieren, und die damit verbundenen Energiekosten für die Übertragung dieser Entropie an einen anderen Ort; Diese Kosten sind winzig im Vergleich zum gesamten Energie- und Entropieaustausch, der beim Drucken eines Buches anfällt.

Solange die Temperatur meines Buches deutlich unter 506 Kelvin bleibt , ist die Wahrscheinlichkeit, dass irgendein Buchstabe im Buch spontan wie ein anderer Buchstabe oder wie ein unleserlicher Fleck aussieht, null, und Temperaturänderungen sind reversibel .

Dieses Argument legt übrigens nahe, dass, wenn Sie Informationen in einem quantenmechanischen System speichern wollen, Sie diese im Grundzustand speichern müssen, den das System bei Nulltemperatur einnehmen wird; Daher müssen Sie ein System finden, das mehrere entartete Grundzustände aufweist. Ein Ferromagnet hat einen entarteten Grundzustand: Die Atome im Magneten wollen sich an ihren Nachbarn ausrichten, aber die Richtung, in der sie sich ausrichten, ist nicht eingeschränkt. Sobald ein Ferromagnet eine Orientierung "gewählt" hat, vielleicht mit Hilfe eines externen Ausrichtungsfeldes, ist diese Richtung stabil, solange die Temperatur wesentlich unter der Curie-Temperatur liegt - das heißt, geringfügige Temperaturänderungen verursachen keine Entropie. zunehmende Schwankungen in der Ausrichtung des Magneten.Sie sind vielleicht mit Informationsspeichermechanismen vertraut, die nach diesem Prinzip funktionieren.

Wie kommt es, dass sich die Shannon-Entropie des Textes eines Shakespeare-Folios nicht mit der Temperatur ändert?
@CuriousOne Es wird, wenn Sie die Temperatur genug ändern; siehe Bearbeiten.
Tut mir leid, aber das ist kompletter Blödsinn. Die Shannon-Entropie umfasst nicht die physikalischen Begriffe, die Sie in der Thermodynamik finden können. Es ist einfach per Definition nicht temperaturempfindlich. Wenn Sie die Definition in "Shannon-Entropie = thermodynamische Entropie" ändern, verliert sie ihren gesamten Nutzen, ganz zu schweigen davon, dass sie die Frage aufwirft: Warum benennen Sie etwas um, das bereits einen Namen hat?
Ich glaube, ich habe gesagt, dass die Shannon-Entropie eine winzige Teilmenge der Informationsentropie ist, und ich habe ein quantitatives Beispiel für eine Temperaturänderung gegeben, die zu einer irreversiblen Erhöhung der Informationsentropie eines Speichersystems führt. Es scheint Sie zu stören, dass ich die Temperatur eines Buches von beispielsweise 250 K auf 300 K ändern kann, ohne seine Informationsentropie zu ändern. aber diese besondere Änderung ist reversibel , und reversible Prozesse in der Thermodynamik sind per Definition isentrop.
Was mich stört, ist, dass die Leute scheinbar einfache Definitionen nicht verstehen können. Die Shannon-Entropie war und ist über Symbolfolgen klar definiert. Es ist ein abstraktes Maß für den Informationsgehalt zB eines Dokuments und als solches äußerst nützlich. Die thermodynamische Entropie ist ein physikalisches Maß für die Bewegung homogener dynamischer Systeme. Sie können die Temperatur eines Buches ändern, und das wird die Entropie des Papiers ändern, aber es wird die Shannon-Entropie des Textes im Buch nicht ein bisschen ändern. Es ist wirklich nicht so schwer zu verstehen. Es gibt keine Informationen in homogenen Systemen, BTW.
@CuriousOne Shannon-Entropie ist ein abstraktes Maß für den Informationsgehalt mit physikalischen Konsequenzen. Insbesondere die Shannon-Entropie ist quantisiert, und Ihre Intuition über Entropie aus der Kontinuumsthermodynamik gilt möglicherweise nicht für Systeme mit quantisierten Freiheitsgraden. Ich habe in einem anderen Beispiel bearbeitet. Ich lerne ziemlich viel, wenn ich mich mit Ihren Kommentaren befasse, also danke.
In der Physik gibt es keine Abstracts. Alles in der Physik sind gemessene Größen realer Systeme. Die Shannon-Entropie ist eine mathematische Größe auf abstrakten Systemen. Es macht absolut Sinn, aber es ist einfach nicht dasselbe wie das, was wir in der Thermodynamik Entropie nennen. Die Dinge, auf die es sich bezieht, sind nicht dieselben.
Und ich habe Ihnen gesagt, wie man es misst (und zugegeben, dass es schwierig ist).
Es ist nicht schwierig, die Shannon-Entropie zu berechnen. Hier ist der Code in Python: pythonfiddle.com/shannon-entropy-calculation , stackoverflow.com/questions/15450192/… (keine Garantie, dass es funktioniert) . Was die thermodynamische Entropie betrifft ... das erfordert eine ernsthafte kalorimetrische Wärmemessung.
Die obige Antwort ist eine "Hochtemperatur" -Erklärung der Entropie in dem Sinne, dass sie ausführlich ist und viele lose verwandte Beispiele enthält.

Formal sind die beiden Entropien dasselbe. Die Gibbs-Entropie in der Thermodynamik ist

S = k B p ich ln p ich
während die Shannon-Entropie der Informationstheorie entspricht
H = p ich Protokoll 2 p ich .
Diese sind bis auf einige numerische Faktoren gleich. Bei einem gegebenen statistischen Ensemble können Sie seine (thermodynamische) Entropie mithilfe der Shannon-Entropie berechnen und dann mit Konstanten multiplizieren.


In gewisser Weise haben Sie jedoch Recht. Wenn Menschen über die Shannon-Entropie sprechen, verwenden sie sie oft nur, um Dinge zu zählen, die wir intuitiv als Informationen wahrnehmen. Zum Beispiel könnte man sagen, dass die Entropie eines Transistors, der mit gleicher Wahrscheinlichkeit auf „Ein“ oder „Aus“ geschaltet wird, 1 Bit beträgt.

Aber die thermodynamische Entropie des Transistors ist tausend-, wenn nicht millionenfach höher, weil sie alles zählt, nämlich die Konfigurationen aller Atome, aus denen der Transistor besteht. (Wenn Sie es Ihren Programmiererkollegen erklären möchten, sagen Sie, dass sie nicht zählen, ob jedes einzelne Atom "an" oder "aus" ist.)

Im Allgemeinen ist die Menge an "intuitiven" Informationen (wie Bits oder Wörter in einem Buch) ein völlig vernachlässigbarer Bruchteil der gesamten Entropie. Die thermodynamische Entropie einer Bibliothek ist ungefähr die gleiche wie die eines Lagerhauses mit leeren Büchern.

Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .
Bringen Sie es in den Chatroom, den @Manishearth eingerichtet hat, oder posten Sie eine andere Antwort, Leute.
Technisch gesehen kann man die Größe der thermodynamischen und Informationsentropien eines Transistors nicht direkt vergleichen, es sei denn, man gibt die Makrozustände des Transistors an. Ich stimme jedoch zu, dass man vielleicht nicht mehr als ein paar grundlegende Größen für einen Transistor messen kann (vielleicht Widerstand, Induktivität usw.), wodurch der Raum möglicher Mikrozustände immer noch unglaublich groß bleibt. Daher können wir für alle Zwecke sagen, dass die thermodynamische Entropie höher ist als die Informationsentropie.
Entropie ist eine anthropomorphe Größe, definiert in Bezug auf die makroskopischen Observablen, die wir wählen, um das System zu spezifizieren. Siehe ein klassisches Papier von ET Jaynes

Ehrlich gesagt glaube ich, dass diese Frage noch nicht wirklich geklärt ist, oder dass es zumindest in der wissenschaftlichen Gemeinschaft noch keinen Konsens darüber gibt, wie die Antwort lautet.

Mein Verständnis der Beziehung ist, glaube ich, etwas anders als bei knzhou, rob oder CuriousOne. Mein Verständnis ist, dass die thermodynamische Entropie als eine bestimmte Anwendung der Informationsentropie betrachtet werden kann. Insbesondere kann man die Prinzipien der Information und Informationsentropie anwenden, um zu fragen, wie viel man über den Zustand eines Quantensystems weiß, und unter bestimmten Bedingungen scheint die thermodynamische Boltzmann-Entropie wiederhergestellt zu werden.

Als konkretes Beispiel untersucht ein aktuelles Experiment zu dieser Frage (1) die "Verschränkungsentropie" eines wechselwirkenden Quantensystems, das eine Anwendung der Informationsentropie auf einen Quantenzustand ist. Unter geeigneten Umständen (Betrachtung der Einzelteilchendichtematrix eines thermalisierten Quantenzustands) erweist sich diese Informationsentropie als identisch mit der thermodynamischen Boltzmann-Entropie.

Aus dieser Sicht ist die Thermodynamik "nur" eine spezielle Anwendung von Informationsprinzipien. Natürlich kann man Informationsprinzipien auch auf ganz andere Systeme wie Bücher und Radiokommunikation und so weiter anwenden. Infolgedessen sind thermodynamische und Informationsentropien nicht identisch, sondern zwei besondere Anwendungen desselben allgemeinen Prinzips.

Diese Meinung wird jedoch keineswegs von allen geteilt, und während diese Korrespondenz in einigen Fällen wie dem obigen Experiment zu funktionieren scheint, bleibt sie in einem allgemeineren Rahmen zu erklären.

Zwei etwas verwandte Fragen, die Sie vielleicht interessant finden:

Spontane Umwandlung von Wärme in Arbeit bei negativen Temperaturen

Welche Phänomene sind für die irreversible Zunahme der Entropie verantwortlich?


Anhang: Entropiehierarchie

Hier ist die Hierarchie der Entropien, die ich hier behaupte (ohne Konstanten wie k B ):

  1. Shannon-Entropie: S Shannon = ich p ich Protokoll p ich . Beschreibt ungefähr, wie viel man über den Zustand eines Systems weiß ich die möglichen Zustände sind. Dieses System könnte beispielsweise eine Folge binärer Bits sein.

  2. Wendet man dies auf einen unbekannten Quantenzustand an, erhält man die Gibbs-Entropie: S Gibbs = ich p ich Protokoll p ich , bei dem die ich sind nun konkret die möglichen Quantenzustände des Systems. Damit dieser Ausdruck physikalisch Sinn macht, ich müssen die Eigenzustände des Systems in einer Basis sein, in der die Dichtematrix diagonal ist *. Mit dieser Vorgabe S Gibbs ist identisch mit der Von-Neumann-Entropie eines Quantenzustands: S VN = tr ( ρ Protokoll ρ ) , mit ρ die Dichtematrix.

  3. Die Verschränkungsentropie ist einfach eine Anwendung von S VN zu einer bestimmten räumlichen Teilmenge eines (normalerweise isolierten) Systems: S E E , EIN = tr ( ρ EIN Protokoll ρ EIN ) , wo ρ EIN ist die Dichtematrix, die sich aus der partiellen Spur über die Dichtematrix eines großen Systems ergibt, wobei nur einige lokale Subsysteme beibehalten werden. Mit anderen Worten, es ist die Entropie eines bestimmten Teils eines größeren Systems.

  4. Die höchst nicht triviale Behauptung in (1) (und anderswo) ist die für ein thermalisiertes System, die S E E , EIN eines kleinen lokalen Subsystems ρ EIN entspricht der thermodynamischen Boltzmann-Entropie, definiert als: S Boltz = ich ( p ich , th Protokoll p ich , th ) , mit p ich , th = e E ich / k B T ich e E ich / k B T , ich als die möglichen Zustände von ρ EIN , und k B T so gewählt, dass das System die richtige Durchschnittsenergie hat. Diese Behauptung ist übrigens als „Eigenzustands-Thermalisierungshypothese“ bekannt.

* Diese Anforderung ist nicht allzu mysteriös: Es liegt einfach daran, dass die Entropie einige "nette" Eigenschaften wie die Additivität des Zustands hat ich muss unkorreliert sein.

Bisher gab es einige aufschlussreiche Antworten zur statistischen mechanischen Entropie, aber bisher wurde die thermodynamische Entropie nur von CuriousOne in den Kommentaren erwähnt, daher dachte ich, es wäre nützlich, eine kurze allgemeine Erinnerung an den feinen Unterschied zu geben zwischen dem Begriff der Entropie in der Thermodynamik und den Formeln, die aus der statistischen Mechanik und der Codierungstheorie stammen.

Ein Ansatz zum Verständnis der thermodynamischen Entropie erfolgt über die grundlegenden (oder technologischen) Einschränkungen der maximal erreichbaren Effizienz von Wärmekraftmaschinen. Band 1 der Feynman-Vorlesungen enthält einen Abschnitt über Thermodynamik, der eloquent beschreibt, wie der Carnot-Wirkungsgrad eine universelle Temperaturskala liefert T (bis auf eine beliebige Wahl der Einheiten), so dass die Menge d Q T ist das Differential einer Zustandsfunktion S das nennt man Entropie. Da sie im Wesentlichen durch die Leistung von Wärmekraftmaschinen definiert wird, ist die thermodynamische Entropie nur empfindlich gegenüber Merkmalen eines Systems, die in der Lage sind, Wärme zu absorbieren und sich so zu entspannen, dass Arbeit extrahiert werden kann.

In diesem Sinne ist die informationstheoretische Entropie ein Maß dafür, welche Merkmale Sie kennen*, während Sie sich die thermodynamische Entropie als ein Maß dafür vorstellen können, welche Merkmale auf kleinen Skalen kollektiv Systeme auf größeren Skalen beeinflussen.

*Informationstheoretische Entropie und statistisch-mechanische Entropie sind (an sich) im Wesentlichen nur Volumenmaße für einen Raum möglicher Ergebnisse.

Ich weiß es zu schätzen, dass Sie die Unterscheidung zwischen statistischen und thermodynamischen Begriffen der Entropie angesprochen haben. Dieser Punkt hat jedoch eine natürliche Reaktion: Die Verbindung zwischen diesen wird in Standardlehrbüchern ziemlich gründlich untersucht. Ich folge beispielsweise Kittel und Kroemer bei der Definition der thermodynamischen Entropie durch die statistische Mechanik (as S G ich b b s oder ähnliches) und Temperatur definieren als 1 / T = S / U (entspricht der in meiner Antwort angegebenen Definition) und diese als Grundlage für die Standardthermodynamik verwenden.
Kittel und Kroemer habe ich leider nicht. Wenn sie jedoch die thermodynamische Entropie so definieren, wie Sie es beschreiben, würde ich sagen, dass die Verbindung zwischen Thermodynamik und statistischer Mechanik in diesem Buch nicht gründlich untersucht wird. Reif und Schroeder (wie auch Feynman Bd. 1) achten jedoch darauf, die Thermodynamik unabhängig von der statistischen Mechanik auf eine solide konzeptionelle Grundlage zu stellen. Für meine Ohren definiert sich die thermodynamische Entropie aus S G ich b b s klingt kreisförmig und mindert die Brillanz der Boltzmann-Gleichung.
Nun, wo Sie Zirkelschlüsse sehen, sehe ich ein besonders elegantes Beispiel für die Reduktion auf allgemeine Prinzipien. Aber ich muss nach solchen Behandlungen suchen.