Entropie und klassische Mechanik

Ich habe versucht zu verstehen, was Entropie im Kontext der klassischen Mechanik bedeutet, aber leider bin ich jetzt verwirrter als ich angefangen habe. Wenn ich zum Beispiel den Wikipedia-Artikel über den zweiten Hauptsatz der Thermodynamik oder die wunderbare Antwort auf diese Frage lese ( Ist eine Welt mit konstanter / abnehmender Entropie theoretisch unmöglich? ), Kann ich mich nicht entscheiden, ob dieses Gesetz ist

1) ein empirisches Gesetz („Wir haben noch nie gesehen, wie sich Wärme von einem kalten Körper zu einem warmen bewegt.“)

2) ein weiches statistisches Gesetz ("in einem Hamilton-System, wenn Sie die Anfangsbedingungen aus einer Verteilung abtasten, die Eigenschaften erfüllt X , Y , Und Z , und messen Sie die Entropie als Funktion der Zeit mit der Formel W , dann wird die Entropie mit hoher Wahrscheinlichkeit im Laufe der Zeit zunehmen (im technischen Sinne; und insbesondere nicht garantiert zunehmen.")

3) ein hartes Gesetz ("es gibt eine Funktion E ( Q , Q ˙ ) über dem Phasenraum, der für jedes Hamilton-System und alle Anfangsbedingungen garantiert monoton ansteigt.")

Mein Eindruck ist, dass Physiker die richtige Interpretation für (3) halten: dass in jedem System eine Größe namens "Entropie" garantiert zunimmt, nicht nur mit hoher Wahrscheinlichkeit. Aber ich kann diese Interpretation nicht mit dem in Einklang bringen, was ich über die klassische Mechanik weiß, insbesondere, dass a) Hamiltonsche Systeme zeitumkehrbar sind und b) ihr Fluss die symplektische Form bewahrt.

In einer anderen Frage, die ich beim Durchsuchen dieser Website gefunden habe ( Gibt es einen Beweis für den 2. Hauptsatz der Thermodynamik? ), Wurden mehrere Erklärungen zu (a) in unterschiedlichen Antworten vorgeschlagen, darunter, dass der Zweite Hauptsatz nur für unbegrenzte Systeme gilt oder dass der Zweite Das Gesetz beruht auf der falschen Annahme, dass vergangene Zustände eines Hamilton-Systems unkorreliert sind (??)

Aber (b) scheint mir noch besorgniserregender zu sein, da die Erhaltung der symplektischen Form genau das impliziert, was meiner Meinung nach das Gegenteil des zweiten Hauptsatzes ist: wenn Sie Anfangsbedingungen im Phasenraum abtasten und sie im Laufe der Zeit weiterentwickeln , werden sie sich dank der Symplektik des Flusses nicht "ausbreiten".

Was gibt? Sicherlich ist es intuitiv, dass eine Form des zweiten Hauptsatzes für klassische Systeme gilt (wenn ich Teilchen in einer Box zusammenballe und ihnen zufällige Geschwindigkeiten zuweise, werden sie sich ausbreiten und sich mit hoher Wahrscheinlichkeit nicht wieder zusammenballen), aber wie funktioniert das? Definieren Sie Entropie und den zweiten Hauptsatz in diesem Zusammenhang rigoros?

Sie könnten Jaynes Papiere lesen, nach etwas Shannons Informationstheorie.

Antworten (1)

Das zweite Gesetz kann in verschiedenen Rahmen untersucht werden. Ein solcher Rahmen ist die klassische Thermodynamik. Und in diesem Rahmen ist das zweite Gesetz wahrscheinlich ein empirisches Gesetz. (Richtig? Ich bin keine Autorität für Clausius-Theorien.)

Aber wir haben moderne, detailliertere Modelle physikalischer Systeme (statistische Mechanik, klassische Mechanik). In solchen Frameworks können wir ein System als anfängliche Wahrscheinlichkeitsverteilung modellieren, die durch einen Hamilton-Operator zeitentwickelt wird. Hier stoßen wir auf einige Probleme. Man kann zeigen, indem man den Satz von Liouville anwendet , dass die Entropie eines Systems unter der Hamiltonschen Evolution konstant bleibt. Dies verstößt nicht gerade gegen den zweiten Hauptsatz (der besagt, dass die Entropie nicht abnimmt), aber es ist auch nicht wirklich befriedigend. Beachten Sie jedoch, welche Art von System durch die Hamiltonsche Evolution beschrieben wird. Erstens muss das System vollständig von seiner Umgebung isoliert sein (andernfalls enthält der Hamiltonoperator Terme mit einer gewissen Unsicherheit, die die Entropie erhöhen). Zweitens müssen wir die kennengenaue Natur des Hamiltonoperators, und da die meisten Hamiltonoperatoren von Zuständen des Systems selbst abhängen, müssen wir den Zustand des Systems (mit unendlicher Genauigkeit) kennen. Dies ist eindeutig unmöglich (vielleicht mit Ausnahme der einfachsten Quantensysteme). Für realistische Hamiltonoperatoren – bei denen die Phasenraumbahn eines beliebigen Punktes eine gewisse Unsicherheit enthält – nimmt die Entropie eines Systems strikt zu (bis ihr Maximum erreicht ist).

Dann könnten Sie sagen, dass dies keinen Sinn macht, weil es nur mit der Unfähigkeit des Beobachters zu tun hat, das System zu kennen, und Sie wissen wollen, was die intrinsische Entropie des Systems bewirkt. Darauf würde ich antworten, dass es keine intrinsische Entropie gibt und dass die Entropie eines Systems immer in Bezug auf Korrelationen zwischen physikalischen Systemen (wie einem System und einem Beobachter) ausgedrückt wird. Beachten Sie jedoch, dass es auf diesem Gebiet keinen Konsens über solche Ideen gibt.

Ich hoffe, das hat Ihre Frage etwas klarer gemacht?