Überlegen Sie, wie Entropie in der klassischen Thermodynamik mathematisch definiert ist:
in welchem steht für ein "Element" von Wärme, übertragen von einer klassischen Quelle zu einem klassischen Ziel (das sind klassische, kontinuierliche Substanzen ), für die Temperatur sowohl der klassischen Quelle als auch der klassischen (was eine reversible Form der Wärmeübertragung impliziert), und für das Inkrement der konjugierten Variablen zur Temperatur . Beachten Sie, dass die Formel kein impliziter Ausdruck für Entropie ist.
Im Gegensatz dazu ist die mathematische Definition für Entropie in der statistischen Mechanik explizit:
in welchem steht für die statistische Entropie, ist die Bolzmann-Konstante , und für die Anzahl der Mikrozustände (oder mikroskopischen Konfigurationen).
Können diese beiden Ausdrücke irgendwie mathematisch verbunden werden? Ich denke nicht (also kann die klassische Entropie nicht aus der statistischen Entropie abgeleitet werden), denn wenn dies der Fall wäre, würde dies bedeuten, dass inkompatible Größen miteinander verglichen würden, was per Definition mit solchen Größen nicht möglich ist (obwohl es heißt das bildet die Brücke zwischen den beiden Ansätzen zur Thermodynamik).
Oder anders ausgedrückt: Wenn es zwei verschiedene mathematische Definitionen von Entropie gibt, bedeutet das nicht, dass es zwei verschiedene Arten (womit ich nicht unterschiedliche Interpretationen meine) von Entropie gibt, auch wenn sie dieselbe Einheit haben? Und kann man nicht dasselbe zum Beispiel über die unterschiedlichen Begriffe (mathematischen Definitionen) der Gravitationskraft im Newtonschen und im Einsteinium-Licht sagen? Oder, noch allgemeiner, zwischen verschiedenen Vorstellungen von beliebigen Größen in zwei unterschiedlichen theoretischen Ansätzen dieser Größen?
Ich habe wegen einiger Ergänzungen in der (sehr klaren) Antwort unten bearbeitet. Dort heißt es, dass die beiden unterschiedlichen Ansätze tatsächlich gleichwertig sind. Aber mein Punkt ist, ob sie wirklich gleich sindIn der Tat. Der statistische Ansatz soll grundlegender sein, woraus man den statistischen Ansatz ableitet, der nur im Zusammenhang mit Messungen verwendet werden kann. Oder anders ausgedrückt, der klassische Ansatz ist ein experimenteller Ansatz, aus dem (indem zunächst Postulate aufgestellt werden) eine Theorie abgeleitet werden kann, während der statistische Ansatz ein theoretischer ist, der durch Experimente überprüft werden kann. Ich glaube also nicht, dass sie vom Konzept her das einzig Gleiche sind. Natürlich kann man sagen, dass sich beide auf die einzig wahre Entropie beziehen, aber ich ziehe es vor zu glauben, dass sich beide Ansätze (theoretisch abhängig) auf wirklich zwei verschiedene Arten von Entropie beziehen.
Ich finde es aber ziemlich verwirrend und trotzdem.
Hat jemand eine Meinung zu dieser Angelegenheit? Ich habe gerade das Gefühl, dass diese Frage immer mehr in die wissenschaftsphilosophische Abteilung gehört und immer weniger in diese...
Ein wichtiger Punkt ist, dass die statistische Entropie als Funktion der Gesamtenergie des Systems definiert ist
Daher sind beide Formeln tatsächlich verbunden.
Ein Punkt über den Unterschied zwischen Thermodynamik und statistischer Mechanik.
Bei der Thermodynamik geht es darum, was von außen über das System gesagt werden kann, das heißt Postulate der Thermodynamik gehen von der Existenz einiger Funktionen aus (innere Energie, Entropie, ...) und sagen, dass diese Funktionen ausreichen, um den Austausch des Systems zu beschreiben mit dem Äußeren. Die Thermodynamik bietet jedoch niemals eine Möglichkeit, diese Funktion und die damit verbundenen Größen (wie diese Wärmekapazität) zu berechnen.
Die statistische Mechanik befasst sich jedoch mit der Berechnung solcher Größen nach dem ersten Prinzip (man geht vom Hamiltonian des Systems aus).
Wir haben also keine a priori Inkompatibilitäten zwischen der Definition der Entropie in der Thermodynamik und der statistischen Mechanik, da die Thermodynamik niemals erklärt, wie man die Entropie berechnet, ohne Dinge messen zu müssen. (Wenn Sie die Wärmekapazität messen, sollten Sie in der Lage sein, die Entropie abzurufen, aber Sie müssen etwas messen.)
Wie ich die Entropiedefinitionen betrachte, sind sie verbunden:
Klassische Thermodynamik: Entropie ist ein Maß für die Energiemenge, die nicht zur Verrichtung von Arbeit zur Verfügung steht.
Statistische Mechanik (Boltzmann-Entropie): Entropie ein Maß für die Menge an Informationen, die über das Vielteilchensystem nicht verfügbar sind (dh Entropie ist ein Maß für potenzielle Informationen, und Boltzmann = Shannon-Entropie, wenn Mikrozustände gleichwahrscheinlich sind)
Also – wenn es sich um dieselbe Entropie handelt – ein Maß für nicht verfügbare Energie oder Information
dann muss Energie proportional zu Information sein, richtig?
Sicher ist es: Landauers Prinzip, der mathematische Zusammenhang.
Landauer
Deschele Schilder
Landauer
Knzhou
Deschele Schilder
Deschele Schilder
Knzhou
Deschele Schilder
d_b
Kyle Kanos
\;
dass dmckee eingefügt ist, ist es ein horizontaler Raum