Könnte ein Festkörper eine beliebig niedrige Entropie, aber eine beliebig hohe Temperatur haben?

Könnte ein fester, isolierter Körper eine willkürlich niedrige Entropie, aber eine willkürlich hohe Temperatur haben?

Ich versuche, eine Intuition aufzubauen: Wenn gemäß der statistischen Mechanik die Entropie ein Maß für die Unordnung und die Temperatur ein Maß für die Energie ist, könnten alle Teilchen (zumindest theoretisch) eine hohe kinetische Energie haben und sich hochvorhersehbar bewegen Weise, was sowohl zu hoher Temperatur als auch zu niedriger Entropie führt? Oder wäre dies aufgrund der inhärenten Zufälligkeit der Teilchenbewegung nur für kurze Zeit möglich, was dazu führen würde, dass die Entropie trotz der Isolierung des Körpers zunimmt?

Oder gibt es eine bestimmte Gleichung, die angesichts ihrer Temperatur / thermischen Energie eine Untergrenze für die Entropie angibt? (Ich gehe durchgehend von festem Volumen und isoliertem Körper aus)

Ich denke, die Idee eines Festkörpers bei beliebig hoher Temperatur steht im Widerspruch zu experimentellen Fakten. Wenn wir uns an die bekannte Physik halten, wird es eine endliche Schmelztemperatur geben. Es ist schwierig, unter unmöglichen Bedingungen etwas Sinnvolles zu sagen.
Übrigens ist die Entropie, auf die Sie sich beziehen, die umfangreiche Entropie oder die Entropie pro Teilchen? Als zusätzliche Bemerkungen möchte ich hinzufügen, dass Temperatur kein Maß für Energie und Entropie kein Maß für Unordnung ist, ohne anzugeben, um welche Art von Unordnung es sich handelt.
@GiorgioP Ah, ich wusste nicht, dass es mehrere Definitionen gibt - was ich beim Schreiben im Sinn hatte, war die Gibbs-Entropieformel S = k B ich P ich Protokoll P ich . Ich dachte, dass der Schmelzpunkt von Temperatur UND Druck abhängen würde, aber wenn es eine Obergrenze für die Temperatur für Feststoffe gibt, würde ich sagen: Haben wir bei einer Temperatur unter dieser Obergrenze eine Untergrenze? S wie oben dargestellt, und wenn ja, woran liegt diese Untergrenze S .

Antworten (3)

Betrachten Sie ein thermisches Ensemble bestehend aus N Freiheitsgrade bei einer Temperatur T . Betrachten wir dieses System aus der Perspektive des mikrokanonischen Ensembles. Im mikrokanonischen Ensemble ist ein solches System mit N Freiheitsgrade ist so konstruiert, dass seine Entropie ist Δ S = Protokoll N , und so, dass seine Energien in einem Intervall verteilt sind E ± Δ E 2 über die durchschnittliche Energie E . Das fordern wir Δ E E , und das N ist eine große Zahl von Eigenschaften, die ein System besitzen muss, um eine thermodynamische Beschreibung zuzulassen. Der Begriff der Temperatur ist genau dann sinnvoll, wenn es eine thermodynamische Beschreibung gibt.

In diesem Ensemble gehorchen nun die Entropie, der Energiebereich und die Temperatur der folgenden Beziehung:

1 T = Δ S Δ E .

Wie Sie sehen können, wenn wir den Energiebereich festlegen Δ E , dann haben wir eine einfache Beziehung zwischen der Entropie und der Temperatur. Sie können jedoch keine beliebig hohe Temperatur und keine beliebig niedrige Entropie haben, da Sie nicht länger im thermodynamischen Regime bleiben, dh N = exp Δ S wird eine kleine Zahl. Sie könnten eine größere verlangen Δ E , aber auch dies hat einen Geltungsbereich, denn Δ E E . Außerdem müssen Sie alle neuen Freiheitsgrade im größeren berücksichtigen Δ E , die zwangsläufig zunehmen wird Δ S .

BEARBEITEN : Als Antwort auf den folgenden Kommentar bedeutet die Auswahl Ihrer ganz bestimmten Konfiguration, dass Sie bereits wissen, in welchem ​​​​Mikrozustand sich das System befindet, und das bedeutet natürlich, dass die Entropie Null ist. Dies läuft auf eine "Feinkörnung" des Systems hinaus, und was Sie berechnen, ist die "feinkörnige Entropie" Ihres Systems, auf die Sie eingestellt haben N = 1 , und folglich befinden Sie sich nicht im thermodynamischen Limit. Der Begriff der Temperatur außerhalb der thermodynamischen Grenze ist nutzlos. Beachten Sie, dass die thermodynamische Entropie eine "grobkörnige" Observable ist. Hier wissen Sie nicht, welche der N -ten Mikrozustand, in dem Sie sich befinden, wo N ist eine große Zahl, und Sie kennen nur den Bereich der Mikrozustände, die dem System zugänglich sind, und den Bereich der Energien. Die Existenz der thermodynamischen Grenze ist entscheidend, um den Begriff der Temperatur zu definieren.

Darf ich Sie um Klärung bitten: ist Δ S die Entropie oder die Entropiedifferenz ? Mein Verständnis war das S war Entropie. Auch der Protokoll N Teil der Dinge - gilt das immer noch, wenn wir sagen, wir könnten irgendwie eine Startposition / einen Impuls für jedes einzelne beteiligte Teilchen festlegen?
@Gabi Entschuldigung für die schlechte Notation, ich bezeichne Δ S als Entropie hier, wie aus dem Kontext klar sein sollte. Die oben betrachtete Situation gilt für statistische Systeme im Allgemeinen. Wenn Sie Startpositionen/-impulse innerhalb der oben genannten Grenzen festlegen, dann sollte es wahr sein.
@Gabi Ich habe die Antwort bearbeitet, um Ihre andere Frage zu beantworten. Irgendwie hatte ich es verpasst, diesen Teil der Frage zweimal zu beantworten.
Danke für die Bearbeitung! Vielleicht habe ich nicht genug Hintergrundwissen, um einige Details vollständig zu verstehen, ich entschuldige mich dafür; Ich komme aus der Statistik. Was ich im Sinn hatte, als ich die Frage stellte, war die Gibbs-Entropieformel S = k B ich P ich Protokoll P ich , und der Wert dieser Größe hängt von der Verteilung ab P ; jetzt spielt es zumindest theoretisch keine Rolle, wie viele unterschiedliche Werte es gibt ich nehmen kann, S kann selbst dann noch beliebig nahe Null sein P ich > 0 ich . Würde diese Art des Denkens nicht in einem thermodynamischen Kontext gelten?
Und wenn ja, wären Sie so freundlich, mir einige Hintergrundlektüre zu empfehlen? Ich bin ziemlich lernbegierig (und möchte nicht nerven) :)
@Gabi Angenommen, Sie verwenden die Gibbs-Entropieformel und haben eine bestimmte Verteilung ausgewählt. Dann ist die Entropie, wie Sie sagten, Null. In diesem Fall kennen Sie jedoch bereits alle möglichen Details über das System, dh Sie kennen die feinkörnige Beschreibung. Sie definieren thermodynamische Größen wie Temperatur nur (was im feinkörnigen Fall überflüssig ist), wenn Sie die detaillierte Beschreibung des Systems nicht kennen, z. B. wenn Sie ein Mol eines Gases haben, von dem Sie nicht alles wissen 10 23 Positionen und Impulse. Statistisch gesehen schreiben Sie das System also in Bezug auf eine kleine Anzahl von Variablen auf.
@Gabi Hier macht der Begriff Temperatur Sinn. Da Sie aus statistischer Sicht kommen, ist Kardar ein perfektes Buch, dem Sie folgen sollten, insbesondere Kapitel 4, das Sie sehr sorgfältig studieren sollten. All diese Dinge werden hier erwähnt, aber es ist ein bisschen knapp. arxiv.org/abs/1307.0378 ist auch eine gute Ressource, hier können Sie die statistische Beschreibung lesen und die Teile des Schwarzen Lochs ignorieren.

Ich denke, die von Bruce Lee gezeigte Gültigkeit der Thermodynamik, die eine große Anzahl von Freiheitsgraden erfordert, beschränkt die Entropie auf eine ziemlich große Zahl. Betrachtet man jedoch das Zweizustandssystem (Spin , ), können Sie eine solche Situation bekommen. Lassen Sie die P - Wahrscheinlichkeit, dass der Spin nach oben zeigt, und dieser Zustand wird Energie haben = ε , während wir annehmen, dass der Spin-Down-Zustand Energie = hat 0 . Dann die Entropie S und Energie sind:

S = P ln P + ( 1 P ) ln ( 1 P )
E = P ε 1 T = ln P ln ( 1 P ) ε
In der Nähe von P 1 / 2 der letzte Ausdruck nähert sich Null, daher ist die Temperatur unendlich. Die Definition für Temperatur, wie oben ausgeführt, ist jedoch nur für große Systeme sinnvoll.

Richtig, aber wenn wir den Impuls und die Position jedes Teilchens irgendwie magisch einstellen könnten, dann könnten wir das nicht haben P = 1 zumindest für einen Augenblick, in diesem Fall S wäre 0 ?
+1, ich denke, das ist ein gutes Beispiel, das sich natürlich aus meiner Antwort ergibt.

Wenn Sie die Temperatur erhöht und das System in Ruhe gelassen haben Das System wird schließlich alle möglichen Mikrozustände ausprobieren. Und die geordnete Anordnung ist einer der möglichen verschiedenen Mikrozustände.

Aber es ist wahrscheinlich sehr unwahrscheinlich, dass eine der spezifischen wohlerzogenen Ordnungen unter einer großen Anzahl von Mikrozuständen auftritt.

Entropie ist ein Logarithmus der Anzahl von Mikrozuständen. Besonders der geordnete Mikrozustand mit gutem Verhalten steht im Einklang mit der hohen Entropie. Das System wird auch diese Möglichkeit ausprobieren. Aber schließlich wird es eine Konfiguration wählen, bei der die Energie am weitesten verbreitet ist, was die Bedingung des thermischen Gleichgewichts ist.

Ordnung ist nicht dasselbe wie niedrige Entropie Und der zweite Hauptsatz ist nicht immer eine Tendenz zur Unordnung in der thermodynamischen Entropie, die einzigen speziellen Anordnungen von Teilchen, die die Entropie ändern, sind diejenigen, die thermodynamische Eigenschaften ändern, und nicht diejenigen, die Schimpfwörter buchstabieren als würdest du dein Zimmer durcheinander bringen.

Nach Ihrer Vorstellung von Entropie sollte ein Schwarzes Loch keine Entropie haben. Aber sie haben.

Wenn Sie von Zufälligkeit als Entropie sprechen, dann sollte man Zufälligkeit fragen, wovon?