Verwirrung bezüglich Entropie, Referenzpapiere anfordern

1.a Im Absatz bei Wikipedia/Entropy heißt es:

Dies liegt daran, dass Energie, die bei hoher Temperatur (dh mit niedriger Entropie) zugeführt wird , tendenziell nützlicher ist als die gleiche Energiemenge, die bei Raumtemperatur verfügbar ist

1.b Aber was ist Entropie? Es gibt:

Je höher die Temperatur des Gases ist, desto schneller bewegen sich die Gasteilchen im Durchschnitt, desto größer ist also der Bereich möglicher Geschwindigkeiten für die Gasteilchen und desto größer ist die Unsicherheit über die Geschwindigkeit eines bestimmten Teilchens. Höhere Temperatur sowie größeres Volumen bedeuten also höhere Entropie .

2.a Ich habe versucht, Informationen über die Beziehung zwischen Entropie und Arbeit zu erhalten. Wenn ein externer Prozess ein System so verändert, dass seine Entropie verringert wird, dann wird von mir grundsätzlich erwartet, dass an dem System Arbeit geleistet wurde und Energie dazu beigetragen hat. Ich habe gute Antworten erhalten ( Zusammenhang zwischen Entropie und Energie ). Allerdings fühle ich mich nicht richtig verstanden.

2.b 1953 schrieb L. Brillouin ("The Negentropy Principle of Information"), was ich grundsätzlich im Sinn hatte, als ich die Frage stellte. Mir ist nicht bekannt, ob der Ansatz richtig und akzeptiert ist.

Ein isoliertes System enthält Negentropie, wenn es eine Möglichkeit zur Verrichtung mechanischer oder elektrischer Arbeit aufzeigt. Befindet sich das System nicht auf einer einheitlichen Temperatur T, sondern besteht es aus verschiedenen Teilen mit unterschiedlichen Temperaturen, enthält es eine gewisse Negentropie. Diese Negentropie kann verwendet werden, um etwas mechanische Arbeit zu erhalten, die vom System geleistet wird, oder sie kann einfach dissipiert werden und durch Wärmeleitung verloren gehen. Ein Druckunterschied zwischen verschiedenen Teilen des Systems ist ein weiterer Fall von Negentropie. Ein anderes Beispiel ist eine elektrische Potentialdifferenz. Ein Tank mit komprimiertem Gas in einem Raum mit atmosphärischem Druck, ein Vakuumtank in einem ähnlichen Raum, eine geladene Batterie, jedes Gerät, das hochgradige Energie erzeugen kann (mechanische Arbeit) oder durch einen irreversiblen Prozess (Wärmeleitung, elektrischer Widerstand, Reibung,

3.a Es gibt oft eine widersprüchliche Intuition über Informationsentropie. Der Shannon-Ansatz sieht maximale Entropie als maximale Unsicherheit / Information.

3.b Joe Rosen sagt in „The Symmetry Principle“, dass maximale Entropie maximale Symmetrie ist – was maximale Redundanz bedeutet, also minimale Informationsmenge.

4. Nichtgleichgewichtsthermodynamik – der Zweig ist nicht ausgereift und dient nicht als Werkzeug zur Lösung von Problemen wie in 2.a, AFAIK.

Ich sah The Physics of Maxwells Dämon und Informationen als sehr guten Leitfaden durch die Thermodynamik des Gleichgewichts (was ist mit dem Nichtgleichgewicht?), ihre Verbindung mit Arbeit und Information. Die Autoren haben jedoch bei der Ausarbeitung der Entropie eines Systems nach Brillouins Ansicht ein Gleichheitszeichen mit der Shannon-Entropie gesetzt – was meiner Meinung nach im Widerspruch zu Brillouin selbst steht – der, wie ich in 2.b zitiert habe, feststellte, dass dies ein Ungleichgewicht ist ermöglicht es dem System zu funktionieren – gemeint ist ein komplexes, informationsreiches System (in einem anderen Absatz stellt er auch ausdrücklich fest, dass Negentropie Information ist). Dies entspricht Rosen 3.b.

Gibt es andere gute Zusammenstellungen zu Entropie, Information, vielleicht Komplexitätswissenschaft? Solche, die die Widersprüche lösen, eine kompatible Nichtgleichgewichtsgrundlage bilden?

Nur eine Anmerkung. Sie sollten bedenken, dass Sie die Entropie genauso betrachten können wie die potenzielle Energie. Sie haben die freie Wahl, wo die Entropie Null ist. Dies könnte zu unterschiedlichen Interpretationen führen, wie minimale und maximale Entropie, aber tatsächlich würden Sie die gleiche Argumentation haben.
@Pygmalion Nur klassisch. In der Quantenmechanik hat man diese Freiheit nicht, siehe zB A Wehrl, General properties of entropy, Reviews of Modern Physics, 1978 .
@PiotrMigdal Danke für deinen Kommentar. Ich werde diese Tatsache in meinem Kopf behalten.

Antworten (3)

Für klare Ausführungen über die Beziehung zwischen Entropie und Information und die Grundlagen der Nichtgleichgewichtstheorie lohnt es sich, durch die Artikel von Edwin Jaynes zu surfen. Seine vollständige Bibliographie finden Sie hier . Es ist wahrscheinlich am besten, mit einem seiner späteren Aufsätze zu beginnen, da sie einen pädagogischeren Ansatz verfolgen. Ich würde „ Die Evolution des Carnot-Prinzips “ als Ausgangspunkt empfehlen und dann vielleicht „ Das Gibbs-Paradoxon “.

Nun, um einige Ihrer spezifischeren Punkte zu beantworten.

1. Entropie lässt sich zumindest am Anfang so definieren, dass man sagt, dass ein Körper eine Temperatur hat T gewinnt einen Betrag Q Wärme, seine Entropie steigt um Q / T . Bei einer gegebenen Wärmemenge bedeutet eine höhere Temperatur also eine geringere Entropie. Daraus folgt jedoch nicht zwangsläufig, dass Körper (oder Gase) mit höherer Temperatur immer eine geringere Entropie haben als Körper mit niedrigerer Temperatur, denn heißere Körper haben auch mehr Energie. Beide Zitate sind richtig, denn das erste bezieht sich auf Entropie pro Energieeinheit und das zweite auf Entropie pro Volumeneinheit.

Das wirklich Wichtige ist jedoch nicht, wie viel Entropie ein Körper bei einer bestimmten Temperatur hat, sondern wie sehr sich seine Entropie ändert, wenn er etwas Energie gewinnt oder verliert. Wenn Sie ein isoliertes System haben, das aus einem heißen Körper besteht (bei Temperatur T H ) und eine kalte (bei T C ), etwas Hitze Q fließt vom heißen zum kalten Körper. Die Entropie des heißen Körpers ändert sich dadurch Q / T H (dh seine Entropie nimmt ab ), aber die Entropie des kalten Körpers nimmt dadurch zu Q / T C , die größer ist, weil T H > T C .

Die gesamte Entropieänderung in diesem System ist Q T C Q T H . Wenn die beiden Temperaturen gleich sind, wird die Entropie maximiert und es kann keine weitere Wärmeübertragung stattfinden.

2.a Eine schöne Art, sich Arbeit vorzustellen, besteht darin, sie sich als Energie ohne zugehörige Entropie vorzustellen. Es ist wie Wärme mit einer unendlichen Temperatur, also das Q / T auf 0 geht. Nehmen wir an, wir haben einen Körper mit einer bestimmten Temperatur T und wir wollen ihm etwas Wärme entziehen und ihn in etwas Arbeit umwandeln W . Die Entropieänderung dieser Transformation ist

Entropie der Arbeit Entropie der Wärme = 0 W / T < 0 ,
was bedeutet, dass es unmöglich ist, diese Transformation durchzuführen, es sei denn, wir erhöhen dabei die Entropie eines anderen Systems um den gleichen Betrag ( W / T ) oder mehr, so dass die Gesamtentropieänderung größer als Null ist.

Insbesondere wenn wir zwei Körper mit unterschiedlichen Temperaturen haben, können wir die Entropie des kalten erhöhen, indem wir etwas Wärme vom heißen auf ihn übertragen. Wenn wir einen Betrag setzen Q in den kalten Körper müssen wir eine Menge nehmen Q + W von der heißen. (Das ist die Energie, die wir in den kalten Körper stecken, plus die Menge, die wir in Arbeit umwandeln.) Die Entropie des kalten Körpers steigt nun um Q / T C während die Entropie des heißen Körpers abnimmt ( Q + W ) / T H . Die gesamte Entropieänderung ist daher

Q T C Q + W T H ,
was positiv ist, solange W < Q ( 1 T C T H ) , die als Carnot-Grenze bezeichnet wird.

Um es noch einmal zu wiederholen, der Punkt ist, dass Arbeit Energie ohne zugehörige Entropie ist, und wenn Sie sie aus Wärme erzeugen wollen, müssen Sie dies tun, indem Sie die Entropie eines anderen Systems erhöhen, um den zweiten Hauptsatz zu erfüllen.

Aber bitte beachten Sie: Ihre Intuition über den Zusammenhang zwischen Arbeit und Entropie war nicht ganz richtig. Die Arbeit an einem System kann seine Entropie verringern (obwohl es sie auch erhöhen kann, indem es Energie hinzufügt), aber die Arbeit an einem System ist nicht die einzige Möglichkeit, seine Entropie zu verringern . Sie können dies beispielsweise auch tun, indem Sie Wärme entfernen, wie ich oben gezeigt habe.

2.b Dieses Zitat ist richtig. Wenn ein System „Negentropie“ hat (was kein sehr gebräuchlicher Begriff ist, aber durchaus vernünftig), dann ist seine Entropie nicht maximal, was bedeutet, dass es möglich ist, seine Entropie zu erhöhen, um etwas Wärme umzuwandeln in arbeiten.

3.a Seien Sie hier vorsichtig - Sie scheinen Unsicherheit mit Information gleichzusetzen, aber sie sind eigentlich Gegensätze! Je weniger Informationen Sie über etwas haben, desto unsicherer sind Sie darüber. Entropie ist Ungewissheit - genauer gesagt ist es die Menge an Ungewissheit, die Sie über den mikroskopischen Zustand eines Systems haben, wenn Sie seine makroskopischen Eigenschaften (Temperatur, Druck, Volumen usw.) kennen. Sie kann in denselben Einheiten wie Informationen (z. B. Bits) ausgedrückt werden, hat aber das entgegengesetzte Vorzeichen, sodass eine Erhöhung der Entropie einen Informationsverlust bedeutet.

3.b Ich habe diese Quelle nicht gelesen, daher kann ich den Symmetrieteil nicht wirklich kommentieren, aber die Idee, dass maximale Entropie gleich minimaler Information ist, ist richtig.

4. Nichtgleichgewichtsthermodynamik ist heutzutage ziemlich ausgereift. Die Grundidee ist, dass Sie das Zeug nehmen, über das ich oben gesprochen habe, und stattdessen eine endliche Menge an Wärme Q , betrachtest du einen Wärmestrom D Q / D T . Dies führt zu einer kontinuierlichen Entropieänderung D S / D T , die für ein isoliertes System positiv sein muss. Die Mathematik unterscheidet sich nicht sehr von der Gleichgewichtsthermodynamik. Wenn Sie einige spezifische Fragen dazu haben, kann ich Ihnen wahrscheinlich helfen, sie zu beantworten.

Wow, das ist eine ausgezeichnete Antwort. Ich habe das Gefühl, dass es mein Verständnis erheblich verbessert hat, und ich habe einen Abschluss in Physik.

Entropie ist ein breites Thema und sowohl für die Physik als auch für die Informationstheorie sehr wichtig.

Im Allgemeinen ist Entropie ein Maß dafür, Dinge nicht zu wissen. Ein Zustand hoher Entropie liegt also vor, wenn es viele mögliche Sequenzen oder viele mögliche Mikrozustände eines physikalischen Systems gibt.

In der Informationstheorie schon

S ( { P ich } ich ) = ich P ich Protokoll ( P ich ) .
Insbesondere wenn es hoch ist, bedeutet dies, dass die Messung genau ist ich gibt viele Informationen.

In der Thermodynamik bezieht es sich auf das Volumen des Phasenraums . Tatsächlich ist es die gleiche Formel wie in der Informationstheorie, aber Sie messen die Wahrscheinlichkeitsverteilung für Teilchen, die sich im Zustand befinden ( X 1 , , X N , P 1 , , P N ) , Wo X ich sind Positionen und P ich - Momente.

Wenn es um Entropie-Energie geht, schauen Sie sich die Thermodynamik an. Bei offenen Systemen kann die Entropie mit der Temperatur abnehmen, wenn Partikel wegfliegen.

Mögliche Lesarten (da die von Ihnen gestellten Fragen nicht in einem Beitrag beantwortet werden können):

Zu Punkt 1 ist die zitierte Aussage in Punkt 1a im schlimmsten Fall falsch, bestenfalls unvollständig (wenn man aus dem Begriff "hohe Temperatur" folgert, dass auch ein Kühlkörper mit niedrigerer Temperatur vorhanden ist). Die "Hochtemperatur"-Energie ist nur nützlich, wenn eine solche Wärmesenke mit niedrigerer Temperatur vorhanden ist und die Gesamtentropie dieser beiden Reservoirs geringer ist, als wenn sie sich bei derselben Temperatur ausgleichen könnten. Zum Beispiel für zwei Reservoirs idealen Gases mit gleichen Volumina v und Anzahl der Moleküle N , eins bei Temperatur T + Δ T und die andere bei T Δ T , die Gesamtentropie der beiden ist (siehe Feynman Lectures Vol. 1, Lecture 44):

S = 2 A + N k [ 2 ln ( v ) + 1 γ 1 [ ln ( T + Δ T ) + ln ( T Δ T ) ] ] = 2 A + N k [ 2 ln ( v ) + 1 γ 1 ln ( T 2 Δ T 2 ) ]
die Entropie ist also maximiert, wenn Δ T = 0 (dh wenn die beiden Reservoirs die gleiche Temperatur haben).

Die Aussage in Punkt 1b) ist richtig: Man kann die Temperatur eines Gegenstands erhöhen, indem man ihm Wärme zuführt, wodurch seine Entropie erhöht wird.

Zu Punkt 2, im Kontext der gleichen zwei idealen Gasreservoirs, jetzt bei gleicher Temperatur, könnte Ihre Idee, Arbeit zu leisten, um ihre Entropie zu reduzieren, verwirklicht werden, indem Sie eine reversible Wärmekraftmaschine zwischen die beiden schalten und diese Maschine mit Arbeit antreiben Wärme von einem Reservoir zum anderen übertragen, wobei das eine gekühlt und das andere geheizt wird (z. B. eine Wärmepumpe oder ein Kühlschrank). Ich bin mit Negentropie nicht vertraut, aber das Brillouin-Zitat scheint die obige Diskussion zu verallgemeinern: Ein Unterschied zwischen zwei Unterabschnitten des Systems ist notwendig, um Arbeit zu extrahieren.

Zu den Punkten 3 und 4 verwendet Shannons Gleichung für die Informationsentropie (siehe Piotr Migdals Antwort) im Wesentlichen dieselbe Form wie in der statistischen Mechanik (weshalb Shannon den Namen entlehnt hat). Ich mag das Zitat aus Pierces „An Introduction to Information Theory“: „Sobald wir die Entropie, wie sie in der Kommunikationstheorie verwendet wird, gründlich verstehen, kann es nicht schaden, sie mit der Entropie in der Physik in Beziehung zu setzen, aber die Literatur weist darauf hin, dass einige Arbeiter haben sich nie von der Verwirrung erholt, die durch eine frühe Vermischung von Ideen über die Entropien der Physik und der Kommunikationstheorie verursacht wurde. Lerne das eine, dann das andere...

Ich würde die oben erwähnte Feynman-Vorlesung sowie die nachfolgenden Vorlesungen über Thermo im selben Band empfehlen.