Entropie hat zwei Definitionen, die aus zwei verschiedenen Wissenschaftszweigen stammen: Thermodynamik und Informationstheorie. Es wird jedoch angenommen, dass sich beide einig sind. Ist es wahr?
Entropie misst aus Sicht der Informationstheorie unsere Unwissenheit über ein System. Aus thermodynamischer Sicht misst die Entropie die Menge an extrahierbarer Arbeit. Die eine ist erkenntnistheoretisch, die andere ontologische. Dennoch können sich beide einig sein, wenn die Entropie wirklich die Menge an extrahierbarer Arbeit misst, wenn man das Wissen über das System berücksichtigt.
Aber ist das wahr? Drückt Shannons Entropie, berechnet anhand der Wahrscheinlichkeitsverteilung eines physikalischen Systems, die Menge an Arbeit aus, die wir daraus ziehen können? Wie erhöht unser Wissenszuwachs die Menge an extrahierbarer Arbeit? Ist das Landauer-Prinzip mächtig genug, um die Verbindung herzustellen?
UPDATE: Unten beantworte ich die erste Frage im Beitrag mit Ja (sind die beiden Entropiearten bis auf eine Konstante gleich). Dies hat zu einiger Verwirrung geführt, da sowohl Matt als auch John Antworten mit den Worten "Die Antwort ist nein" gaben, aber ich glaube, sie beziehen sich auf den Titel "Maß Entropie extrahierbare Arbeit?". Obwohl der Autor die beiden synonym verwendet, enthält die Frage selbst eine falsche Prämisse: nämlich, dass die physikalische Entropie ein Maß für extrahierbare Arbeit ist ("Entropie misst aus thermodynamischer Sicht die Menge extrahierbarer Arbeit"). Dies gilt im Allgemeinen einfach nicht, kann jedoch für bestimmte Spezialfälle gelten, wie Matts Gegenbeispiel zeigt. Ein konkreter Fall hierfür ist ein beliebig auf einer ebenen Fläche platzierter Ball. Wenn der Ball zufällig platziert wird,
Die Antwort ist ja, die beiden Entropiearten sind bis auf einen konstanten Faktor gleich (was auch der Ursprung des Landauer-Prinzips ist). Ein Weg, dies zu sehen, ist über Maxwells Dämon. Insbesondere über den Szilard-Motor, eine idealisierte Wärmekraftmaschine, die ein einzelnes Partikelgas verwendet. Sie führen dann eine Trennwand ein, die das Gas effektiv in zwei Bereiche aufteilt, von denen nur einer das Partikel enthält. Wenn Sie nun wüssten, auf welcher Seite der Trennwand sich das Partikel befindet, könnten Sie die Druckdifferenz verwenden, um Arbeit herauszuziehen, und wenn Sie dies nicht tun, können Sie dies nicht, da Sie nicht wissen, in welche Richtung es geschoben wird.
Nun kommt die Verbindung zur Informationstheorie ins Spiel, wenn wir messen, auf welcher Seite der Trennwand sich das Teilchen befindet. Daraus gewinnen wir eine bestimmte Menge an Entropie (und damit Information) in dem Register, das unser Messergebnis enthält. Aber diese Information verringert die Entropie des Gases. Und daher können Sie zwischen Informationsentropie und physikalischer Entropie hin und her wechseln.
Es gibt eine ziemlich umfangreiche Literatur zu diesem Thema, daher verweise ich Sie, anstatt zu versuchen, Ihnen eine Liste zu geben, auf einen Übersichtsartikel über Maxwells Dämonen- und Informationstheorie von vor einigen Jahren: arXiv:0707.3400 .
Die Antwort ist nein. Stellen Sie sich ein System vor, das einen entarteten Grundzustand hat, so dass die Dichtematrix eine Mischung aus zwei Grundzustands-Eigenzuständen ist. Dies hat eine Shannon-Entropie ungleich Null, aber Sie können keine Arbeit daraus extrahieren. Allgemeiner gesagt ist die thermodynamische Entropie für Nichtgleichgewichtssysteme nicht wirklich gut definiert, aber die Shannon-Entropie ist es.
Meine eigene Meinung ist, dass thermodynamische Entropie und Shannon-Entropie zwei konzeptionell unterschiedliche Dinge sind. Sie fallen in einer Vielzahl von Umständen zusammen, aber nicht immer. Mir ist nicht einmal klar, ob die Fälle, in denen sie in klassischer und Quantentheorie zufällig zusammenfallen, notwendige Zufälle sind. Es könnte möglich sein, eine wohldefinierte physikalische Theorie zu entwickeln, in der sie niemals zusammenfallen, z. B. in der Konvexmengen-Berühmtheit für verallgemeinerte probabilistische Theorien, die in der Gemeinschaft der Quantengrundlagen untersucht werden.
Da das Wort „Arbeit“ mehrere Bedeutungen hat, lautet die Antwort im Allgemeinen „nein“.
Typischerweise ist die erste Bedeutung, die den Schülern beigebracht wird, thermodynamisch, aber (wie Dirac demonstrierte) läuft eine verallgemeinerte Bedeutung (die thermodynamische Arbeit als besonderen Fall einschließt) auf Folgendes hinaus:
Bei einer gegebenen Klasse dynamischer Prozesse ist „Arbeit“ jede potenzielle Funktion, die auf natürliche Weise beschreibt, was diese Klasse leistet.
Insbesondere im Zusammenhang mit der Isotopentrennung stellte Dirac das Arbeitspotential fest die natürlich mit einer Isotopenkonzentration verbunden ist wird von gegeben
oder äquivalent für die Spinpolarisation die Dirac-Wert-Funktion mit getrenntem Transport der Spinpolarisation verbunden ist
Der entscheidende Punkt ist, dass die Wertfunktion von Dirac nicht proportional zu einer Entropiedifferenz ist (wie offensichtlich ist, weil während die Entropie pro Mol über einen endlichen Bereich reicht).
Darüber hinaus kann die mit der Trennung verbundene Dirac-Arbeit nicht in mechanische Arbeit zurückgeführt werden, da der Trennungsprozess entropisch irreversibel ist. Nichtsdestotrotz hat Dirac-Arbeit einen erheblichen wirtschaftlichen Wert und definiert tatsächlich die Werteinheit eines globalen Marktes in separaten Arbeitseinheiten (SWUs, ausgesprochen "swooz").
Für eine Ableitung der Dirac-Austrittsarbeit siehe Diracs eigene (unveröffentlichte) technische Anmerkung „Theory of theseparation of isotopes by statistics“ ( ca. 1940), die in seinen Collected Works erscheint , oder alternativ Donald Olanders Übersichtsartikel „Technical Basis of the Gas Centrifuge" (1972), oder allgemein jedes Lehrbuch zur Isotopentrennung.
Aaron Sterling
John Sidle
Graf
Joe Fitzsimons