Misst Entropie extrahierbare Arbeit?

Entropie hat zwei Definitionen, die aus zwei verschiedenen Wissenschaftszweigen stammen: Thermodynamik und Informationstheorie. Es wird jedoch angenommen, dass sich beide einig sind. Ist es wahr?

Entropie misst aus Sicht der Informationstheorie unsere Unwissenheit über ein System. Aus thermodynamischer Sicht misst die Entropie die Menge an extrahierbarer Arbeit. Die eine ist erkenntnistheoretisch, die andere ontologische. Dennoch können sich beide einig sein, wenn die Entropie wirklich die Menge an extrahierbarer Arbeit misst, wenn man das Wissen über das System berücksichtigt.

Aber ist das wahr? Drückt Shannons Entropie, berechnet anhand der Wahrscheinlichkeitsverteilung eines physikalischen Systems, die Menge an Arbeit aus, die wir daraus ziehen können? Wie erhöht unser Wissenszuwachs die Menge an extrahierbarer Arbeit? Ist das Landauer-Prinzip mächtig genug, um die Verbindung herzustellen?

Ich finde die dramatisch unterschiedlichen Antworten auf diese Frage etwas verwirrend. Ich dachte auch, dass die beiden Arten von Entropie unterschiedlich sind, aber ich mochte Joes Antwort und habe sie positiv bewertet. Wäre es möglich, dass jemand die verschiedenen Antworten in Einklang bringt oder darauf hinweist, warum eine (oder mehrere) davon falsch sind?
Eine Versöhnung besteht darin, dass "Arbeit" mehrere Bedeutungen hat. Typischerweise ist die erste erlernte Bedeutung thermodynamisch, aber (wie Dirac demonstrierte) eine allgemeinere Bedeutung lautet: Bei einer Klasse dynamischer Prozesse ist „Arbeit“ ein mathematisch natürliches Maß dafür, was diese Prozesse leisten
Sie möchten wahrscheinlich sagen, dass die thermodynamische Entropie Ihnen sagt, wie viel Energie nicht für die Arbeit zur Verfügung steht! Ich werde auch Matts Antwort folgen, da dies nur Sinn macht, wenn sich der Zustand im thermischen Gleichgewicht befindet, während die Shannon-Entropie allgemeiner ist.
@Aaron: Eigentlich ist die Versöhnung, dass ich mit Ja geantwortet habe, ob die beiden Entropiedefinitionen übereinstimmen oder nicht. Ich meinte nicht, dass Entropie extrahierbare Arbeit misst.

Antworten (3)

UPDATE: Unten beantworte ich die erste Frage im Beitrag mit Ja (sind die beiden Entropiearten bis auf eine Konstante gleich). Dies hat zu einiger Verwirrung geführt, da sowohl Matt als auch John Antworten mit den Worten "Die Antwort ist nein" gaben, aber ich glaube, sie beziehen sich auf den Titel "Maß Entropie extrahierbare Arbeit?". Obwohl der Autor die beiden synonym verwendet, enthält die Frage selbst eine falsche Prämisse: nämlich, dass die physikalische Entropie ein Maß für extrahierbare Arbeit ist ("Entropie misst aus thermodynamischer Sicht die Menge extrahierbarer Arbeit"). Dies gilt im Allgemeinen einfach nicht, kann jedoch für bestimmte Spezialfälle gelten, wie Matts Gegenbeispiel zeigt. Ein konkreter Fall hierfür ist ein beliebig auf einer ebenen Fläche platzierter Ball. Wenn der Ball zufällig platziert wird,


Die Antwort ist ja, die beiden Entropiearten sind bis auf einen konstanten Faktor gleich k B Protokoll 2 (was auch der Ursprung des Landauer-Prinzips ist). Ein Weg, dies zu sehen, ist über Maxwells Dämon. Insbesondere über den Szilard-Motor, eine idealisierte Wärmekraftmaschine, die ein einzelnes Partikelgas verwendet. Sie führen dann eine Trennwand ein, die das Gas effektiv in zwei Bereiche aufteilt, von denen nur einer das Partikel enthält. Wenn Sie nun wüssten, auf welcher Seite der Trennwand sich das Partikel befindet, könnten Sie die Druckdifferenz verwenden, um Arbeit herauszuziehen, und wenn Sie dies nicht tun, können Sie dies nicht, da Sie nicht wissen, in welche Richtung es geschoben wird.

Nun kommt die Verbindung zur Informationstheorie ins Spiel, wenn wir messen, auf welcher Seite der Trennwand sich das Teilchen befindet. Daraus gewinnen wir eine bestimmte Menge an Entropie (und damit Information) in dem Register, das unser Messergebnis enthält. Aber diese Information verringert die Entropie des Gases. Und daher können Sie zwischen Informationsentropie und physikalischer Entropie hin und her wechseln.

Es gibt eine ziemlich umfangreiche Literatur zu diesem Thema, daher verweise ich Sie, anstatt zu versuchen, Ihnen eine Liste zu geben, auf einen Übersichtsartikel über Maxwells Dämonen- und Informationstheorie von vor einigen Jahren: arXiv:0707.3400 .

Ja ich sehe. Aber immer noch mit dem Beispiel der Szilard-Engine möchte ich weiter gehen. Wenn ich weiß, auf welcher Seite das Teilchen si ist, kann ich kT ln(2) an Arbeit extrahieren. Wenn ich nicht weiß, wo das Teilchen ist, bekomme ich keine Arbeit. Aber was ist, wenn ich Teilwissen habe? Ist immer noch Shannons Entropie die Antwort?
@Javier: Ja, Sie können genau denselben Trick verwenden, aber verwenden Sie eine Messung, die 0 zurückgibt, wenn sich das Partikel im äußersten linken Fach befindet, und 1 mit Wahrscheinlichkeit p wenn sich das Teilchen ganz rechts befindet, andernfalls 0, und von dort aus fortfahren. Schaut euch die Zeitung an, da steht viel Gutes drin.
Neuere Ergebnisse hier arxiv.org/abs/0908.0424 und hier arxiv.org/abs/1009.1630

Die Antwort ist nein. Stellen Sie sich ein System vor, das einen entarteten Grundzustand hat, so dass die Dichtematrix eine Mischung aus zwei Grundzustands-Eigenzuständen ist. Dies hat eine Shannon-Entropie ungleich Null, aber Sie können keine Arbeit daraus extrahieren. Allgemeiner gesagt ist die thermodynamische Entropie für Nichtgleichgewichtssysteme nicht wirklich gut definiert, aber die Shannon-Entropie ist es.

Meine eigene Meinung ist, dass thermodynamische Entropie und Shannon-Entropie zwei konzeptionell unterschiedliche Dinge sind. Sie fallen in einer Vielzahl von Umständen zusammen, aber nicht immer. Mir ist nicht einmal klar, ob die Fälle, in denen sie in klassischer und Quantentheorie zufällig zusammenfallen, notwendige Zufälle sind. Es könnte möglich sein, eine wohldefinierte physikalische Theorie zu entwickeln, in der sie niemals zusammenfallen, z. B. in der Konvexmengen-Berühmtheit für verallgemeinerte probabilistische Theorien, die in der Gemeinschaft der Quantengrundlagen untersucht werden.

Ein nettes Gegenbeispiel Matt! Ähnliches dachte ich mir beim Lesen der Frage.
@Matt: Gute Antwort, und Sie erhalten +1 von mir, aber ich verstehe die Behauptung nicht, dass die thermodynamische Entropie für Nichtgleichgewichtssysteme nicht gut definiert ist. Es ist gegeben durch k B ich p ich Protokoll p ich wo p ich ist die Wahrscheinlichkeit der ich t h Mikrozustand. Dies ist offensichtlich für Nichtgleichgewichtssysteme und Gleichgewichtssysteme gleichermaßen definiert.
Tatsächlich denke ich, dass das Problem durch die Existenz alternativer nicht äquivalenter Definitionen von Entropie getrübt wird.
@JoeFitzsimons Sie haben dies wahrscheinlich seit dem 2. Oktober 2011 ausgearbeitet, aber falls Sie dies nicht getan haben, wird die "experimentelle" Entropie (die aus Makrozustandseigenschaften berechnet wird) aufgrund von Dingen wie unscharf T unscharf werden. Es ist gleich Ihrem Ausdruck wann ich steht sowohl für den Zustand des konstituierenden Teilchens als auch für den globalen Mikrozustand (wenn man ersteres mit der Anzahl der Teilchen multipliziert), dh die Mikrozustände der konstituierenden Teilchen sind statistisch unabhängig. Ihr Ausdruck ist im Allgemeinen gleich der Shannon-Entropie - wenn es Korrelationen gibt, werden die Wahrscheinlichkeiten von Mikrozuständen ....
@JoeFitzsimons ... durch makroskopische Messungen nicht zugänglich. Wenn Sie dieses Papier noch nicht gesehen haben, finden Sie es vielleicht hilfreich. ET Jaynes, „Gibbs vs. Boltzmann Entropies“, Am. J. Phys. 33, Heft 5, S. 391-398, 1965 sowie viele andere seiner Arbeiten auf diesem Gebiet . Übrigens: Deine Frage ist ausgezeichnet.
@WetSavannaAnimalakaRodVance Sicher, aber so etwas wie die von Neumann-Entropie eines Zustands wird immer definiert. Es hängt nicht davon ab, ob sich das System in einem Gibb-Zustand befindet, und erfordert daher keine Definition der Temperatur.
@JoeFitzsimons Gut definiert ja, aber immer noch unzugänglich und nicht gleich dem, was Jaynes die experimentelle Entropie nennt. Es ist nicht ganz klar, was die Antwort bedeutet - ich denke, John meint wahrscheinlich unzugänglich, wenn er "undefiniert" sagt.
@WetSavannaAnimalakaRodVance: Ich fürchte, ich verstehe nicht, wie das mit den Fragen oder Antworten zusammenhängt. Ich glaube nicht, dass einer von uns über die Fähigkeit diskutiert, Entropie aus Messungen genau abzuleiten, sondern ob drei Konzepte (Arbeitsextraktion, informationstheoretische Entropie und physikalische Entropie) gleichwertig sind.
@JoeFitzsimons Nun, ich denke, die kurze Antwort ist, dass sie es nicht immer sind - Jaynes hat eine Menge zu den Unterschieden zu sagen - und wie Sie sagen, gibt es eine erschreckende Anzahl von Definitionen.
@JoeFitzsimons BTW Nur um das klarzustellen, da stimme ich dir zu k B ich p ich Protokoll p ich mit ich über ein Ensemble reichend, ist immer wohldefiniert, solange das "Ensemble" wohldefiniert und gleich der Shannon-Entropie ist.
@WetSavannaAnimalakaRodVance Die meisten Arbeiten zu diesem Thema sind nach Jaynes Papieren datiert, daher sind sie bei weitem nicht das letzte Wort zu diesem Thema. Ich bin mir nicht sicher, was Sie damit meinen, dass das "Ensemble" gut definiert ist. Für jedes Quantensystem p ich wohldefiniert, da sie einfach die Eigenwerte der Dichtematrix sind.
@JoeFitzsimons Mach dir keine Sorgen, "Ensemble gut definiert" = ich bin nur pedantisch - ich bin ein bisschen skeptisch, dass wir noch grundsolide Wahrscheinlichkeitsgrundlagen haben, also ist es so, als wäre man bei Sätzen mit großen Kardinalitäten vorsichtig.

Da das Wort „Arbeit“ mehrere Bedeutungen hat, lautet die Antwort im Allgemeinen „nein“.

Typischerweise ist die erste Bedeutung, die den Schülern beigebracht wird, thermodynamisch, aber (wie Dirac demonstrierte) läuft eine verallgemeinerte Bedeutung (die thermodynamische Arbeit als besonderen Fall einschließt) auf Folgendes hinaus:

Bei einer gegebenen Klasse dynamischer Prozesse ist „Arbeit“ jede potenzielle Funktion, die auf natürliche Weise beschreibt, was diese Klasse leistet.

Insbesondere im Zusammenhang mit der Isotopentrennung stellte Dirac das Arbeitspotential fest v c die natürlich mit einer Isotopenkonzentration verbunden ist c wird von gegeben

v c ( c ) = ( 2 c ' 1 ) Protokoll [ c ' 1 c ' ]

oder äquivalent für die Spinpolarisation p = 2 c 1 die Dirac-Wert-Funktion v p mit getrenntem Transport der Spinpolarisation verbunden ist

v p ( p ' ) = v c ( c ' ) | c ' = ( 1 + p ' ) / 2 = p ' Protokoll [ 1 + p ' 1 p ' ]

Der entscheidende Punkt ist, dass die Wertfunktion von Dirac nicht proportional zu einer Entropiedifferenz ist (wie offensichtlich ist, weil 0 v p ( p ' ) < während die Entropie pro Mol über einen endlichen Bereich reicht).

Darüber hinaus kann die mit der Trennung verbundene Dirac-Arbeit nicht in mechanische Arbeit zurückgeführt werden, da der Trennungsprozess entropisch irreversibel ist. Nichtsdestotrotz hat Dirac-Arbeit einen erheblichen wirtschaftlichen Wert und definiert tatsächlich die Werteinheit eines globalen Marktes in separaten Arbeitseinheiten (SWUs, ausgesprochen "swooz").

Für eine Ableitung der Dirac-Austrittsarbeit siehe Diracs eigene (unveröffentlichte) technische Anmerkung „Theory of theseparation of isotopes by statistics“ ( ca. 1940), die in seinen Collected Works erscheint , oder alternativ Donald Olanders Übersichtsartikel „Technical Basis of the Gas Centrifuge" (1972), oder allgemein jedes Lehrbuch zur Isotopentrennung.