Ich habe erst vor kurzem angefangen, statistische Mechanik zu studieren, und ich bin ziemlich verwirrt von den MaxEnt- und Anti-MaxEnt-Ideen. Ich suche nach einer prägnanten Antwort, wenn es möglich ist, nicht wirklich eine Beschreibung oder Debatte der Kritik und Argumente von MaxEnt, ich möchte nur eine klare Vorstellung davon haben, wo es heute steht.
Außerdem brachte mich die Debatte zum Nachdenken über den aktuellen Stand der Statistischen Physik. Ich würde gerne wissen, inwieweit die statistische Mechanik experimentell validiert ist. Es scheint mir, dass die meisten Arbeiten zur statistischen Mechanik durch Simulationen durchgeführt werden, ich neige dazu, experimentelle Validierung gegenüber theoretischen Ableitungen oder Simulationen zu bevorzugen, so harte Beweise dafür, dass beispielsweise mit statistischen mechanischen Methoden berechnete Entropiewerte in hohem Maße konsistent sind der Genauigkeit mit experimentellen Entropiewerten wäre wünschenswert.
Ich hoffe, dass die Frage knapp und klar genug ist, ich bin mir bewusst, dass diese Art von Fragen manchmal subjektive Debatten anheizen kann.
Das Prinzip der maximalen Entropie, das hauptsächlich von Jaynes populär gemacht wurde, ist den meisten Menschen bekannt, die statistische Physik studiert haben. So wie ich es sehe, obwohl Jaynes es als entscheidend für die Grundlagen der statistischen Gleichgewichtsmechanik betrachtete und andere Leute auf dem Gebiet dies immer noch tun (wie zum Beispiel Roger Balian), wird es eher gelehrt und als nützliche Methode angesehen, um die Gibbs abzurufen '-Ensembles, ohne zu viel darüber nachzudenken, was wir tun. Ich würde also sagen, dass MaxEnt als interessantes und kurioses Werkzeug/Phänomen angesehen wird, dem in der Praxis nicht so viel Bedeutung beigemessen wird. Obwohl ich der MaxEnt-Idee ziemlich zugetan bin, glaube ich, dass sie allein nicht ausreicht, um die Erfolge zu erklären und die grundlegenden Probleme der statistischen Thermodynamik im Gleichgewicht zu lösen. In den letzten Jahren,
Was die Gültigkeit der statistischen Mechanik betrifft; es wird in vielerlei Hinsicht validiert, indem man in der Lage ist, die richtigen konstitutiven Beziehungen zwischen thermodynamischen Variablen in verschiedenen Systemen herauszufinden und diese thermodynamischen Observablen mit mikroskopischen Parametern in Beziehung zu setzen. Das gesamte theoretische Verständnis von Gasen, Flüssigkeiten und allgemeiner der Physik der kondensierten Materie beruht darauf. Es ist fair zu sagen, dass es äußerst erfolgreich ist. Was den Vergleich tatsächlicher Simulationen oder theoretischer Zahlen mit Experimenten anbelangt, so wurden beispielsweise große Erfolge bei der Berechnung der spezifischen Wärme von Festkörpern erzielt. Schmelztemperaturen von Kristallen werden täglich berechnet, mit normalerweise sehr guter Übereinstimmung mit Experimenten und effektiven Wechselwirkungen (wie dieser) zwischen mesoskopischen Teilchen kann nur mit diesem Rahmen erfasst werden usw. Tatsächlich ist die Liste so lang und so breit, dass ich nicht weiß, wo ich mit der Liste anfangen soll.
Abgesehen davon ist anzumerken, dass sich Vorhersagen in der statistischen Mechanik natürlich auf den theoretischen Rahmen stützen, aber auch gleichermaßen auf das mikroskopische Modell, das mit der Theorie verwendet wird. Ein dramatisches Beispiel ist der Flüssig-Gas-Phasenübergang in atomaren und molekularen Systemen. Wählt man den Bereich des genutzten anziehenden Potentials zwischen den Atomen/Molekülen zu kurz, so sieht man den Übergang nie, da sein entsprechender kritischer Punkt dann unterhalb des Flüssig-Fest-Übergangs liegt.
Daher ist der Umgang mit der statistischen Mechanik eine harte Arbeit, und das Testen ihrer Vorhersagen ist auch eine sehr harte Arbeit. Und wenn Meinungsverschiedenheiten auftreten, ist es angesichts der bisherigen Erfolge des Frameworks oft klüger, sich zuerst das Modell anzusehen, bevor man die Theorie überdenkt.
Graf Iblis
Kyle Kanos