Was ist der Sinn der Hamiltonschen Mechanik?

Ich habe gerade einen Kurs in klassischer Mechanik abgeschlossen, und rückblickend sind einige Dinge nicht ganz klar. In der ersten Hälfte haben wir den Lagrange-Formalismus behandelt, was ich ziemlich cool fand. Ich habe besonders die Freiheit geschätzt, die Sie bei der Wahl der Koordinaten haben, und die Tatsache, dass Sie Zwangskräfte im Grunde ignorieren können. Natürlich können Sie die meisten einfachen Situationen mit dem guten alten lösen F = m a , aber für kompliziertere Sachen ist der ganze Formalismus ziemlich praktisch.

In der zweiten Hälfte wechselten wir dann zur Hamiltonschen Mechanik, und da begann ich aus den Augen zu verlieren, warum wir die Dinge so machten, wie wir es taten. Ich habe kein Problem damit, den Hamiltonian oder die Hamilton-Gleichungen oder die Hamilton-Jacobi-Gleichung oder was auch immer zu verstehen. Mein Problem ist, dass ich nicht verstehe, warum sich jemand die Mühe machen sollte, all dies zu entwickeln, um die gleichen Dinge zu tun, die Sie zuvor getan haben, aber auf eine andere Art und Weise. Tatsächlich müssen Sie in den meisten Fällen mit einer Lagrange-Funktion beginnen und die Impulse erhalten p = L q ˙ , und der Hamiltonoperator aus H = q ich ˙ p ich L . Aber wenn Sie bereits die Lagrange-Funktion haben, warum lösen Sie nicht einfach die Euler-Lagrange-Gleichungen?

Ich denke, es gibt vielleicht interessante Anwendungen des Hamilton-Formalismus, und wir haben einfach nicht viele Beispiele gemacht (es war so ziemlich der harmonische Oszillator). Ich habe auch gehört, dass es einen einigermaßen reibungslosen Übergang in die Quantenmechanik ermöglicht. Wir haben einen Weg ausgearbeitet, um Schrödingers Gleichung dazu zu bringen, Dinge mit der Aktion zu tun. Aber irgendetwas klickt immer noch nicht.

Meine Fragen sind die folgenden: Warum verwenden Menschen den Hamiltonschen Formalismus? Ist es besser für die theoretische Arbeit? Gibt es Probleme, die leichter mit der Mechanik von Hamilton als mit der von Lagrange gelöst werden können? Was sind einige Beispiele dafür?

Antworten (15)

Es gibt mehrere Gründe für die Verwendung des Hamiltonschen Formalismus:

  1. Statistische Physik. Das Standardgewicht der thermischen Zustände der reinen Zustände wird gemäß angegeben

    Prob ( Zustand ) e H ( Zustand ) / k B T

    Sie müssen also Hamiltonianer verstehen, um Stat-Mech in wirklicher Allgemeinheit zu machen.

  2. Geometrische Schönheit. Hamiltons Gleichungen besagen, dass das Fließen in der Zeit dem Fließen entlang eines Vektorfelds im Phasenraum entspricht. Dies gibt ein schönes geometrisches Bild davon, wie die Zeitentwicklung in solchen Systemen funktioniert. Menschen verwenden dieses Framework häufig in dynamischen Systemen, wo sie Fragen wie „Ist die Zeitentwicklung chaotisch?“ untersuchen.

  3. Die Verallgemeinerung zur Quantenphysik. Der grundlegende Formalismus der Quantenmechanik (Zustände und Observable) ist eine offensichtliche Verallgemeinerung des Hamiltonschen Formalismus. Es ist weniger offensichtlich, wie es mit dem Lagrangeschen Formalismus verbunden ist, und noch viel weniger offensichtlich, wie es mit dem Newtonschen Formalismus verbunden ist.


[Bearbeiten als Antwort auf einen Kommentar:]

Dies könnte zu kurz sein, aber die grundlegende Geschichte lautet wie folgt:

In der Hamiltonschen Mechanik sind Observablen Elemente einer kommutativen Algebra, die eine Poisson-Klammer trägt { , } . Die Algebra der Observablen hat ein herausragendes Element, den Hamiltonoperator, der die Zeitentwicklung über definiert d Ö / d t = { Ö , H } . Thermische Zustände sind einfach lineare Funktionen dieser Algebra. (Die Observablen werden als Funktionen auf dem Phasenraum realisiert, und die Klammer kommt von der dortigen symplektischen Struktur. Aber die Algebra der Observablen ist das, was zählt: Sie können den Phasenraum aus der Algebra der Funktionen zurückgewinnen.)

Andererseits haben wir in der Quantenphysik eine Algebra von Observablen, die nicht kommutativ ist. Aber es hat immer noch eine Halterung { , } = ich [ , ] (der Kommutator), und es erhält seine Zeitentwicklung immer noch von einem ausgezeichneten Element H , über d Ö / d t = { Ö , H } . Ebenso sind thermische Zustände in der Algebra immer noch lineare Funktionale.

Ich würde hinzufügen, dass das Noether-Theorem in der Hamilton-Formulierung am klarsten ist und dass das Zählen unabhängiger erster Integrale mit der Poisson-Klammer einfacher ist. Ich erinnere mich nicht, ob es überhaupt möglich ist festzustellen, ob das System vollständig in die Lagrange-Formulierung integrierbar ist.
Ich frage mich, warum wir keine Flüsse auf dem Tangentenbündel untersuchen, wo die Lagrange-Funktion definiert ist. Jeder Punkt dort bestimmt auch eindeutig den Zustand, nicht wahr?

Einige weitere Kommentare zur Antwort von user1504:

  1. Für ein System mit Konfigurationsraum der Dimension n , Hamilton-Gleichungen sind ein Satz von 2 n , gekoppelte , ODEs erster Ordnung , während die Euler-Lagrange-Gleichungen ein Satz von sind n , ODEs zweiter Ordnung . Bei einem bestimmten Problem könnte es einfacher sein, die Hamilton-Gleichungen erster Ordnung zu lösen (obwohl mir im Moment leider kein gutes Beispiel einfällt).

  2. Es stimmt, dass die Quantenmechanik normalerweise im Hamilton-Formalismus dargestellt wird, aber wie in der Antwort von user1504 implizit angegeben ist, ist es möglich, einen Lagrange zu verwenden, um klassische Systeme zu quantisieren. Der Hamilton-Ansatz wird allgemein als "kanonische Quantisierung" bezeichnet, während der Lagrange-Ansatz als "Pfad-Integral-Quantisierung" bezeichnet wird.

Bearbeiten. Wie Benutzer Qmechanic betont, ist mein Punkt 2 nicht ganz richtig; Pfadintegralquantisierung kann auch mit dem Hamiltonoperator durchgeführt werden. Siehe zum Beispiel diesen Post in Physics.SE:

In Pfadintegralen sind Lagrangian oder Hamiltonian grundlegend?

Sollte das zweite 2 n gerecht sein n ? Ich würde hoffen, dass die Lagrange-Methode nicht doppelt so viele ICs erfordert.
Kommentar zum letzten Satz der Antwort (v2): Hervorzuheben ist, dass es auch eine hamiltonsche Formulierung des Pfadintegrals gibt, vgl. zB dieser Phys.SE Beitrag.
Ich habe ein Beispiel für Sie. ODEs erster Ordnung sind viel einfacher numerisch zu lösen: Sie können einen Vektor schreiben x mit 2n verallgemeinerten Koordinaten und Impulsen, und schreibe x ˙ = F ( x ) . Dann an jedem Punkt x Im Phasenraum wissen Sie, in welche Richtung Sie "eintreten" müssen. Sie können sogar die Stabilität durch Linearisierung analysieren F , und das Vorzeichen der Realteile der Eigenwerte des Jakobiners betrachten.
Eine Anmerkung zu (1): Es ist immer trivial, ein System von Gleichungen zweiter Ordnung in Gleichungen erster oder zweiter Ordnung zu übersetzen: Einfach ersetzen x ¨ durch j ˙ (Einführung der Funktion j ) und füge die Gleichung hinzu j = x ˙ . Um das zu erreichen, braucht man nicht Hamiltons Formulierung. Hamiltons Gleichungen sind jedoch viel symmetrischer als die, die ich gerade vorgeschlagen habe.
Kleiner Trottel: der n verschiedene ODEs zweiter Ordnung, die die Euler-Lagrange-Gleichungen bilden, sind im Allgemeinen gekoppelt. Wie @ZachMcDargh betont, sind ODEs erster Ordnung viel einfacher numerisch zu lösen. (In der Tat, wenn man eine ODE zweiter Ordnung numerisch löst, wandelt man sie fast immer sofort in ein System gekoppelter ODEs erster Ordnung um, indem man das Verfahren verwendet, das Friedrich erklärt.) In jedem Fall müssen Sie also in der Praxis lösen 2 n ODEs erster Ordnung. Aber wie Friedrich sagt, sind Hamiltons Gleichungen symmetrischer.
@tparker Indeed - die Aussage zu EL-Gleichungen wurde korrigiert. Ich habe wesentlich mehr über numerische ODEs gelernt, seit dieser Beitrag erstellt wurde – gute Punkte.
  1. Zunächst einmal ist Lagrange eine mathematische Größe, die keine physikalische Bedeutung hat, aber Hamilton ist physikalisch (z. B. ist es in einigen Fällen die Gesamtenergie des Systems), und alle Größen in der Hamilton-Mechanik haben physikalische Bedeutungen, was die physikalische Intuition erleichtert .

  2. In der Hamilton-Mechanik gibt es kanonische Transformationen, mit denen Sie Koordinaten ändern und einfachere kanonische Koordinaten und Impulse finden können, in denen es einfacher ist, Probleme zu lösen.

  3. Das Beste von allem ist, dass Lagrange eine leistungsstarke mathematische Methode ist, um Probleme in der klassischen Mechanik zu lösen, aber Hamiltonian ist eine leistungsstarke Methode, um Probleme in der klassischen Mechanik, Quantenmechanik, statistischen Mechanik, Thermodynamik usw. zu lösen, eigentlich fast die gesamte Physik ...

Zum Beispiel: In der Thermodynamik: Freie Gibbs-Energie, Freie Helmholtz-Energie ... sind alles kanonische Transformationen der Hamilton-Funktion.

Hamiltonian ist nicht immer die Gesamtenergie, obwohl es in vielen der Systeme der Fall ist, die man typischerweise in einem klassischen Mechanikkurs studiert.
Ja, es ist nicht immer totale Energie, aber mein Punkt ist „es ist immer körperlich“.
Nicht alle Hamiltonschen Größen haben eine direkte physikalische Bedeutung. Verallgemeinerte Impulse und Koordinaten können gemischte Funktionen von kartesischen Koordinaten und ihren entsprechenden Impulsen sein, ohne Garantie, dass das Ergebnis eine einfache physikalische Interpretation hat. Auch in der Thermodynamik sind Gibbs- und Helmholtz-Funktionen keine Legendre-Transformationen der Hamilton-Funktion, sondern der inneren Energie. Für ein homogenes System ist dies die Funktion U ( S , v , N ) , was mit dem Hamilton-Operator aus der Mechanik verwandt ist, aber dennoch etwas ganz anderes ist.
Lagrange hat eine klare physikalische Bedeutung. Das ist der Unterschied zwischen kinetischer und potentieller Energie.
Lagrange hat keine physikalische Bedeutung? Woher?
Ist die Lagrange-Funktion nicht mit der kleinsten Wirkung verwandt? S == bestimmtes Integral (L dt)
@maynak was bedeutet es "körperlich" zu sein? Energie ist meines Wissens auch nichts Physikalisches, insofern man sie nicht direkt messen kann, sondern nur ein mathematischer Wert, der zufällig erhalten bleibt.
@DimiterP, man kann keinen Lagrange messen. Es ist möglich, dasselbe physikalische Problem mit völlig unterschiedlichen Langrangianern darzustellen, indem unterschiedliche Definitionen getroffen werden, was "potentielle" und "kinetische" Energie ausmacht. Beispielsweise gibt es in der Strömungsmechanik mindestens zwei völlig unterschiedliche Lagrangeoperatoren. Auf der anderen Seite repräsentiert der Hamilton-Operator die Gesamtenergie, und diese ist messbar und eindeutig definiert.

Ein zusätzlicher Punkt, der von den vorherigen Antworten nicht genug betont wurde, ist, dass der Hamiltonsche Formalismus es Ihnen ermöglicht, kanonische Transformationen durchzuführen, um zum bestmöglichen Koordinatensystem im Phasenraum zu wechseln, um das System zu beschreiben. Das ist viel besser als in der Lagrange-Mechanik, wo man nur Koordinatentransformationen im Konfigurationsraum durchführen kann. (Der Phasenraum hat die doppelte Anzahl an Dimensionen, man hat also eine größere Freiheit.) Ich finde Poisson-Klammern in der Hamiltonschen Mechanik sehr nützlich, um die Bewegungsgleichungen einer beliebigen Funktion von Phasenraumvariablen zu schreiben: Q ˙ = { Q , H } . Es ist möglich, Erhaltungsgrößen zu finden ( Q ˙ = 0 ) in der Hamiltonschen Mechanik, die in der Lagrangeschen Mechanik nicht offensichtlich sind.

Beispiele:

  1. Normalmodus-Oszillationen. Wenn sich herausstellt, dass der Hamiltonoperator eine quadratische Funktion von Koordinaten und Impulsen für ein System von ist N Gegenstände, z H = ich j M ich j q ich q j + ich j M ich j p ich p j dann können Sie einfach eine kanonische Transformation entlang der Eigenvektoren von durchführen M ich j zu diagonalisieren M ich j , und Ihr System zerfällt in unabhängige harmonische Oszillatoren.

  2. Störungstheorie. Sie können die Oszillationen um den Gleichgewichtszustand einfach untersuchen, indem Sie den Hamilton-Operator in den Phasenraumvariablen auf die zweite Ordnung erweitern.

  3. In der Planetendynamik gibt es eine große Skalentrennung zwischen der Wechselwirkung von Planeten mit dem Zentralstern und ihren gegenseitigen Wechselwirkungen. "Säkulare Theorie" beschreibt die sehr langfristige Entwicklung des Systems unter Verwendung der Hamiltonschen Mechanik. Sie können eine kanonische Transformation (Von-Zeipel-Transformation) entlang der Aktionswinkelvariablen der kurzfristigen Wechselwirkungen anwenden. Daraus kann man dann die Langzeitentwicklung ableiten (zum Beispiel die der Exzentrizitäten und Neigungen), untersuchen, ob sich die langfristigen Störeffekte von Planeten resonant addieren oder nicht, ob das System chaotisch ist usw.

Fantastisch. Das passt so gut zu den informationstheoretischen Überlegungen (die mich letztendlich auf diese Seite geführt haben, als ich über ML und Unabhängigkeit nachgedacht habe).
@jhegedus können Sie einen Hinweis darauf geben, an welche informationstheoretischen Überlegungen Sie gedacht haben? der anschluss ist mir nicht bekannt

Sie können Hamiltons Bewegungsgleichungen auch in sympletischer Form schreiben:

ξ ˙ ich = ω ich j H ξ j

Wo ξ ich sind die Koordinaten im Phasenraum, also ξ = ( q , p ) . Und, ω ist die sympletische Matrix:

ω = [ 0 ich n × n ich n × n 0 ]

Wo ich n × n ist die Identitätsmatrix, mit einem System von n Raumkoordinaten (und damit n Geschwindigkeiten, und diese, 2 n Mengen an Phasenraumkoordinaten). Auch für ein Observable G , wir haben: G ˙ = { G , H } wie du weißt. So können Sie leicht die Dynamik einer gegebenen Observable haben G . Alles sehr schön und ordentlich und allgemein, aber....

Aber ... hier ist, was ich für den erstaunlichsten Teil der Hamilton-Mechanik halte:

X = x ich ich = { ξ ich , H } ich

Wo X ist ein hamiltonsches Vektorfeld. Nun können wir stattdessen für eine Observable verallgemeinern G , sein Vektorfeld:

X G = x G ich ich , x G ich = { ξ ich , G } = d ξ ich d ϵ

Für jeden gegebenen Parameter ϵ für beobachtbar G , Generieren eines Operators X G . Seine Taylor-Entwicklung erster Ordnung:

ξ ich ( ϵ ) ξ ich ( ϵ 0 ) = ( ϵ ϵ 0 ) X G ξ ich

Wo Betreiber X G wirkt auf ξ ich . Wir können die Differentialgleichung in aufeinanderfolgenden infinitesimalen Transformationen lösen und erreichen die grundlegende Exponentialgrenze, wodurch wir die vollständige allgemeine Lösung jedes Hamilton-Systems für jede Observable haben G :

ξ ich ( ϵ ) = exp ( Δ ϵ X G ) ξ 0 ich

Verstehst du die Macht davon?? Um noch einmal darauf hinzuweisen, dass es sich hier um die Lösung jedes Hamiltonschen Systems für jede Observable handelt G mit Parameter ϵ vom Betreiber generiert X G . Wenn Sie Dynamik analysieren wollen, dann ϵ ist die Zeit, und G ist der Hamiltonian, wo X H definiert den Hamiltonschen Vektorraum. Alle Hamiltonschen Systeme haben die gleiche Lösung. Die gleiche Lösung!! Lassen Sie uns also nach der Dynamik auflösen (dh wo ϵ ist an der Zeit):

ξ ich ( t ) = exp ( Δ t d d t ) ξ 0 ich

Also, wie Sie sehen können, ziemlich nett. Die Lagrange-Mechanik gibt Ihnen schöne vereinheitlichte Bewegungsgleichungen. Die Hamiltonsche Mechanik liefert schöne einheitliche Phasenraumlösungen für die Bewegungsgleichungen. Und bietet Ihnen auch die Möglichkeit, einen zugehörigen Operator und eine koordinatenunabhängige sympletisch-geometrische Interpretation zu erhalten. Ersteres ist entscheidend in der Quantenmechanik, letzteres ist entscheidend in dynamischen Systemen.

Hm ... das ist lustig ... Ich denke, das hängt mit meinen und anderen Antworten zusammen, ein äußerst interessanter Blickwinkel, danke!
Warte eine Sekunde, das Beste an dieser Antwort ist der Name der Person, die diese Antwort geschrieben hat :) LOOOOL :) :)
Wie war der Ausdruck X = x ich ich = { ξ ich , H } ich erhalten?
@AccidentalFourierTransform sagte "der erstaunlichste Teil der Hamilton-Mechanik". Gibt es einen Namen für diese Funktion? Das ist eine ziemlich erstaunliche Tatsache, und ich denke, sie würde benannt werden.
@Dale hast du den falschen Benutzer angepingt? Ich habe diese Antwort nicht geschrieben, ich habe nur ein paar kleine Änderungen vorgenommen.
Ups, ja tut mir leid. @Physicist137 gibt es einen Namen für diese Funktion?

Dies ist eine Tatsache über den Hamiltonian im Vergleich zum Lagrangeian, die ich nicht trivial finde (und es wert ist, im Gedächtnis zu bleiben).

Angenommen, der Lagrangian L und Hamiltonian H sind bezüglich einiger Koordinaten zyklisch q 1 . Dann haben wir einen Satz (vgl. [1]):

Die Entwicklung der anderen Koordinaten q 2 , . . . , q n ist die eines Systems mit n 1 unabhängige Koordinate q 2 , . . . , q n mit Hamiltonian

H ( p 2 , . . . , p n , q 2 , . . . , q n , t , c ) ,
abhängig vom Parameter c = p 1 .

Beachten Sie, dass dies falsch ist, wenn statt H wir geben den Satz für den Lagrangian an L .

Um genau zu sehen, was ich meine, betrachten Sie die vereinfachte Lagrange-Funktion des Zwei-Körper-Problems:

L = μ 2 ( r ˙ 2 + r 2 φ ˙ 2 ) U ( r ) .
Wir haben
p φ = μ r 2 φ ˙ = ( Konstante ) .
Jetzt versuchen zu stecken
φ ˙ = μ r 2
in den Lagrange und vergleiche die so erhaltenen Bewegungsgleichungen mit denen, die du erhältst, indem du sie direkt in die Bewegungsgleichungen einfügst L r = d d t L r ˙ .

[1] „Mathematische Methoden der klassischen Mechanik“ VI Arnold, §15 Cor.2.

FWIW, genau das gleiche Lagrange-Problem in pppqqqs letztem Beispiel wird genau gefragt, zB hier & hier .

Zusätzlich zu den vielen großartigen Antworten, die bereits gepostet wurden:

1) Die Hamiltonsche Mechanik eignet sich für eine allgemeine und systematische Form der Störungstheorie, die als "kanonische Störungstheorie" bezeichnet wird. Die Störungstheorie in der Lagrange-Mechanik ist tendenziell eher ad hoc und fallweise. Ich vermute, dass Hamilton und Jacobi die Theorie ursprünglich aus diesem Grund entwickelt haben, da sie natürlich nichts über ihre zukünftigen Stat-Mech- und Quantenanwendungen wussten.

2) Die Hamilton-Mechanik führt zur Hamilton-Jacobi-Gleichung, die nützlich ist, um nicht offensichtliche Erhaltungsgrößen für komplizierte Systeme zu finden.

3) Die Hamilton-Jacobi-Gleichung wiederum führt zu Aktionswinkelvariablen , die besonders nützlich in der Astronomie sind (um die sich die frühen Physiker sehr gekümmert haben).

Irgendwelche Beispiele für diese nicht offensichtlichen Größen in 2)?
@lalala: Das kann ich jetzt beantworten. Die Hamilton-Jacobi-Gleichung führt zu einer „verborgenen“ Bewegungskonstante für Partikel, die sich um ein schwarzes Kerr-Loch bewegen, was wiederum ermöglicht, alle Gleichungen auf die erste Ordnung zu reduzieren und Dinge wie die Berechnung der Form des Schattens zu tun.

Eine Möglichkeit, die Beziehung zwischen der klassischen Hamilotschen Mechanik und der Quantenmechanik zu sehen, besteht darin, nicht nach einer direkten Übersetzung von Hamiltionian -> Quantum Hamiltionian (was existiert: Geometrische Quantisierung) zu suchen, sondern die umgekehrte Beziehung zu betrachten. Gegeben ist ein Hamilton-Operator und seine Auswertung an Wellenfunktionen der Form e ich ϕ (was als hochgelegenes Wellenpaket gedacht werden kann) vereinfacht sich im Limit 0 zur Hamilton-Jacobi-Gleichung mit dem klassischen Hamiltonian. Dies ist als WKB-Näherung bekannt und gilt auch für die Optik (dh Lichtstrahlen folgen in erster Näherung den Integralkurven des zugehörigen Hamilton-Bildes).

Könnten Sie bitte angeben, was hier Phi ist?
In diesem Zusammenhang handelt es sich um eine beliebige reellwertige Funktion, die die Phase des Wellenpakets beschreibt. Die WKB-Näherung liefert dafür normalerweise eine Art Gleichung (für die Schrödinger-Gleichung ist es die Hamilton-Jacobi-Gleichung).

Der kanonische (Hamiltonsche) Formalismus bietet einen der Hauptwege zur Quantisierung der Gravitation. Die Allgemeine Relativitätstheorie kann in Form der ADM 3+1-Zerlegung der Raumzeit ausgedrückt werden:

http://en.wikipedia.org/wiki/ADM_formalism

Und Hamiltonian liegt der Quantenmechanik zugrunde:

http://en.wikipedia.org/wiki/Hamiltonian_(Quantenmechanik)

Dies stellt nicht nur eine schwer fassbare Verbindung zwischen ansonsten grundlegend inkompatiblen Theorien (Quantenfeldtheorie und allgemeine Relativitätstheorie) her, sondern im Hamiltonschen Formalismus von GR ist es auch möglich, Probleme numerisch zu lösen, die ansonsten extrem schwierig oder unmöglich sind, über die Standard-Einstein-Feldgleichungen.

Übrigens ist die Lagrangedichte (und die Lagrange-Dichte) in der allgemeinen Relativitätstheorie physikalisch, da man die Einstein-Feldgleichungen direkt aus der Einstein-Hilbert-Wirkung ableiten kann. Diese Wirkungsminimierung ist auch die Grundlage des pfadintegralen Ansatzes der Quantenfeldtheorie:

http://en.wikipedia.org/wiki/Path_integral_formulation

Die in der QFT so nützlichen Feynman-Diagramme leiten sich direkt davon ab, und natürlich ist die Stringtheorie eine höherdimensionale Verallgemeinerung des Pfadintegralansatzes.

http://www.staff.science.uu.nl/~hooft101/lectures/stringnotes.pdf

Ein Vorteil des Hamilton-Operators ist der direkte Ausdruck des Satzes von Noether . Der Satz von Noether besagt, dass Symmetrie zu Erhaltungsgrößen führt.

Eine Möglichkeit, den Satz von Noether zu verstehen, besteht darin, dass ein System mit einer Symmetrie eine zugehörige, vernachlässigbare Koordinate in der Lagrange-Funktion hat. Beispielsweise kann ein System mit Rotationssymmetrie in Koordinaten ausgedrückt werden, wobei der Rotationswinkel ist ϕ kommt im Lagrange nicht vor.

L ϕ = 0 d d t ( L ϕ ˙ ) = d p ϕ d t = 0

Also die ϕ Impulsanteil bleibt erhalten.

Der Hamilton-Ansatz ist besonders nützlich bei numerischen Verfahren. Beachten Sie, wie uns eine der Hamilton-Evolutionsgleichungen etwas über Impulsänderungen sagt.

d p ich d t = H q ich , d q ich d t = H p ich

In einem System mit erhaltenen kanonischen Impulsen fordern Hamiltons Gleichungen explizit die Erhaltung. In vielen Fällen ist der Hamiltonoperator selbst eine Erhaltungsgröße (wie Energie). Das Auffinden numerischer Lösungen für die Hamilton-Gleichungen anstelle des zweiten Newton-Gesetzes führt zu einer größeren Stabilität der numerischen Lösungen. Es gibt eine ganze Klasse von Methoden zum Lösen von Differentialgleichungen, symplektische Integratoren , die diese Funktion verwenden.

Wenn Sie ein Orbitalproblem direkt numerisch entwickeln F = m x ¨ , baut sich ein numerischer Fehler schnell auf und die Umlaufbahn weicht von der wahren Lösung ab. Eine Möglichkeit, dies zu sehen, besteht darin, die Energie und den Drehimpuls als Funktionen der Zeit zu berechnen ( E ( t ) , ( t ) ) aus Positionslösungen r ( t ) , θ ( t ) , ϕ ( t ) . Das wirst du finden E ( t ) und ( t ) deutlich von den Ausgangswerten abweichen und sich immer weiter verschlechtern.

Beim Arbeiten mit Hamilton-Gleichungen wirken sich numerische Fehler auf Ihre Berechnungen aus, aber ( ) wird bei jedem Schritt genau gleich sein und E ( t ) wird stabiler sein, da es eine Funktion des Stalls ist p ist zusätzlich zu q 's. Die Positionskoordinaten weisen weiterhin numerische Fehler auf. Aber weil E und stabil sind, schwanken die Koordinaten um die wahren Werte herum, anstatt zu divergieren.

Der Hamilton-Operator kann verwendet werden, um eine Entwicklung der "Dichte in Phase" eines Systems von N Körpern zu beschreiben. Die Dichte in Phase ist eine Erhaltungsgröße für ein System im Gleichgewicht nach dem Satz von Liouville. Der Ort und die Impulse können jeden allgemeinen intensiven Parameter beschreiben. Gibbs verwendete diesen Ansatz, um statistische Mechanismen abzuleiten.

Dieser Ansatz des Konzepts der Entwicklung einer Wahrscheinlichkeitsdichtefunktion kann in vielen anderen Anwendungen verwendet werden. Meine aktuelle Forschung wendet dies auf die State-Space-Control-Theorie, ökonomische Analysen und die Bewertung von Strahlenschäden in Zellen an. Obwohl es ein wenig kompliziert ist, ist es äußerst nützlich. Es geht Hand in Hand mit der Entropiemaximierung.

Entschuldigung, bitte korrigieren Sie diese Antwort, ich möchte sie nicht ablehnen, aber "Die Phasendichte ist eine konservierte Größe für ein System im Gleichgewicht nach dem Satz von Liouville." ist bedeutungslos. So etwas wie "Dichte" gibt es nicht, zumindest nicht in einem diskreten System. Jeder Staat ist entweder besetzt oder nicht. Der Satz von Liouville besagt, dass das VOLUMEN konstant ist. Dh die Anzahl der besetzten Punkte. Dies ist nur für ein Ensemble von Systemen (in der Statistik) von Bedeutung - bei denen das Volumen mehr als "eins" beträgt. "Informationen gehen nicht verloren." Das bedeutet es.
"Es geht Hand in Hand mit der Entropiemaximierung" => Ich wäre äußerst vorsichtig, solche Dinge zu sagen. "Boltzmanns Grund für den Selbstmord waren intellektuell getriebene Frustrationen." Es ist immer noch ein Rätsel. claesjohnson.blogspot.com/2019/02/boltzmann-175.html Die Antwort sieht SEHR wackelig aus.

Extrem kurze und unerwähnte Antwort: Impuls und Ort in der Quantenmechanik (QM) bilden eine Darstellung der Heisenberg-Algebra in Form von einheitlichen Operatoren. In der Newtonschen Mechanik (NM) gibt es keine sichtbare zugrunde liegende algebraische Struktur, aber in der Hamiltonschen Mechanik (HM) bilden Impuls und Ort auch eine Darstellung der Heisenberg-Algebra, diesmal in Bezug auf reelle Funktionen. Aus dieser gruppentheoretischen Sicht sind HM und QM kaum zu unterscheiden, während QM im Vergleich zu NM wie Magie wirkt.

Unitäre Operatoren: Erhaltung der Norm der Wellenfunktion. Omg, Vertretung. Meine Gruppentheorie hört auf bei: Repräsentation ist eine "Matrix". Angenommen, eine Rotationsmatrix für eine Rotationsgruppe. Ort und Impuls sind keine Darstellungen. Die Betreiber selbst sind. Wenn ich die Matrix-Analogie nehme. Position und Impuls sind einfach die "Räume", in denen die Operatoren/Matrizen operieren. Meine Gruppentheorie ist 18 Jahre alt, also könnte ich hier etwas falsch liegen.
Interessant, heute ist mir gerade das Konzept der Irreduzibilität in den Sinn gekommen. Ich denke, es bezieht sich auf die Umwandlung einer Matrix in eine Blockdiagonalform. Sehr lustig führt dies auch zum Konzept der Unabhängigkeit wie bei der Entkopplung (meine Gruppentheorie ist sehr alt ... aber diese blockdiagonale Sache gibt mir einen Anhaltspunkt).
Uuuups, ja ... en.wikipedia.org/wiki/Irreducible_representation ... die Hauptbedeutung der Gruppentheorie ist genau das ... Systeme mit entkoppelten Gruppen zu beschreiben ...

Das klassische Problem der Mechanik besteht darin, die Bewegungsgleichungen für ein gegebenes Lagrange- oder Hamilton-System zu lösen. In diesem Fall ist es nur eine Frage der Wahl, ob man dafür den Hamilton- oder den Lagrange-Formalismus verwendet. Sobald die Lösung gefunden ist, ist alles, was es über dieses spezifische System zu wissen gibt, darin enthalten.

Aber wie wäre es, wenn man grundlegendere Fragen stellen möchte, ob es Eigenschaften physikalischer Systeme gibt, die nicht spezifisch für die spezielle Form eines Hamilton-/Lagrange-Operators sind, sondern vielmehr allen Systemen innewohnen. Um dies zu beantworten, muss man die mathematische Struktur enträtseln, die allen physikalischen Systemen gemeinsam ist. Genau dann unterscheidet sich die Hamilton-Formulierung von der Lagrange-Formulierung: Die generische Struktur, die Hamiltonschen Systemen zugrunde liegt, trägt den Namen „symplektische Mannigfaltigkeiten“, und es stellt sich heraus, dass ihre Mathematik so reich ist, dass sie für die Mathematik bis zu von großem Interesse ist Dieses Datum.

Das prominenteste Beispiel für eine generische Eigenschaft von Hamilton-Systemen, die nicht mit der spezifischen Form eines Hamilton-Operators zusammenhängt, ist das Liouville-Theorem, das besagt, dass der Phasenraum mit der Zeit erhalten bleibt. Intuitiv bedeutet dies, dass Informationen während der Lebensdauer des Systems niemals verloren gehen.

Das Studium der Hamiltonschen Dynamik/symplektischen Mannigfaltigkeiten wird besonders nützlich, wenn die Raumzeit nicht euklidisch ist. Beispielsweise gibt es auf einer Kugel keine symplektischen Mannigfaltigkeiten und damit keine Hamilton-Dynamik S 2 n für n>1. Es sind also diese Arten von Fragen, die sehr natürlich in der symplektischen Mannigfaltigkeit/Hamiltonschen Umgebung untersucht werden können, anstatt im Lagrangeschen Formalismus.

Ich finde es gut, dass Sie auch den Informationswinkel ansprechen. Die Geschichte geht viel tiefer. Denken Sie an Unabhängigkeit. Unabhängige Systeme. Entkopplung. Die Entropie ist additiv. Die Energie ist additiv. Energie ist einfach ein Maß für die Entropie. Die Bewegungsgleichungen sind unabhängig. IMHO geht das in beide Richtungen. Ich vermute auch, dass dies "Dimensionen" Bedeutung verleiht. Verallgemeinerte Koordinaten. Die Einschränkungen berücksichtigen. Sie (können) die Energieabhängigkeit entkoppeln. So wird es möglich, H(x,y)=H(x)+H(y) zu schreiben. Aufgrund des "Konzepts", dass die Gesamtenergie die Summe der Teilenergien ist.
Ich bin zu diesem Schluss gekommen, nachdem ich viele Stunden lang "ML" gelernt habe, 3 Jahre + 2 oder so ... und habe auch einen Doktortitel in Physik mit Schwerpunkt auf theoretischer Physik der kondensierten Materie. Lustigerweise passen ML und Cond Mat Phys wunderbar reibungslos zusammen. Wie Spin-Brille für DNNs und so. Also habe ich mich gefragt, warum es so eine große Sache ist, dass "Zeug" in "ML" unabhängig sein muss (siehe grafische Modelle und ihre Freunde), dennoch ist das Konzept der Unabhängigkeit in ML zentral. Unabhängiges "Koordinatensystem" finden. Sie ermöglicht es, die Entropie als Summe zu schreiben. Dann dachte ich an Statistik, Entropie
freie Energie und wie die Thermodynamik aus einfachen Prinzipien abgeleitet wird, Ergodizität, Phasenraum, Entropie und so ... Ich kam zu der Erkenntnis, dass die Existenz des Hamilton-Formalismus und der Unabhängigkeit in "ML" denselben zugrunde liegenden Grund hat, nämlich die Reduzierung des Kolmogorov Komplexität des Algorithmus, der die "Theorie" in der Physik oder das "Modell" in ML beschreibt. Außerdem wird der Prior (in beiden Disziplinen) mit der Anzahl unabhängiger Freiheitsgrade exponentiell spärlicher. Sobald die Unabhängigkeit maximiert ist, wird es auch einfacher, unbeaufsichtigtes Lernen zu "durchführen" (ich habe vergessen, warum ... :) ).

Die folgende Antwort ist ein bisschen "intuitiv", aber hoffentlich immer noch größtenteils richtig oder zumindest zum Nachdenken anregend. Entschuldigung für die mangelnde Strenge. Ich habe vor, diese Gedanken eines Tages in einem netten Blogbeitrag niederzuschreiben, dies ist nur eine grobe Skizze.

Ich bin mir nicht sicher, aber der wichtigste Punkt im Konzept von "Hamiltonian" ist, dass zwei unabhängige Systeme Energie addieren.

Nicht wechselwirkende Systeme können durch H1+H2 beschrieben werden.

Ich habe diese Seite durchsucht und dies wurde nicht beschrieben.

Warum ist diese Additivität so eine große Sache?

Nehmen wir einen harmonischen Oszillator.

Der Phasenraum ist der Umfang eines Kreises.

Energie ist proportional zum Radius des Kreises.

Also der Umfang.

Also die Anzahl der Mikrozustände.

Also S=-log(E)*c.

Warum ist das also eine große Sache?

Denn wenn wir zwei harmonische Oszillatoren nehmen, dann wird die Entropie additiv (extensiv).

Warum ist das so eine große Sache?

Wahrscheinlichkeit. Logwahrscheinlichkeiten unabhängiger Systeme sind additiv.

Die physikalische Unabhängigkeit und die probabilistische Unabhängigkeit sind in diesem Fall also gleich.

So wird statistische Physik möglich, "bewerkstelligt" zu werden.

Dies ist eine andere Sichtweise auf die Aussage der akzeptierten Antwort. Aus informationstheoretischer Sicht.

Warum ist Unabhängigkeit so wichtig?

Die Kolmogorov-Komplexität der Algorithmen, die den Phasenraum oder sogar die Bewegung beschreiben, sind additiv. Es ist also optimal. Im Sinne von Occams Rasiermesser.

Daher ist der Hamiltonsche Formalismus der optimale Weg, um Theorien zu erstellen, die unabhängige Systeme beschreiben.

Aus dieser Sicht ist es intuitiv zu sehen, dass die Störungstheorie "funktioniert".

Wenn die Energieänderung eines Subsystems klein ist (schwache Störung), dann wird der Phasenraum nicht viel größer, sodass die zu speichernde Information zur Beschreibung des gestörten Systems nicht viel mehr ist, weil sich die Größe des Phasenraums nicht viel ändert .

Dieser informationstheoretische Ansatz liefert also eine intuitive Erklärung, warum die Störungstheorie "funktioniert".

Auch hieraus folgt E=mc^2 (bis auf eine Konstante). E = mc ^ 2 drückt einfach aus, dass, wenn ein Oszillator verschwindet, auch sein Phasenraum verschwindet und die Energie auf den anderen Oszillator übertragen wird, sodass die Information erhalten bleibt. Bei E=mc^2 geht es "einfach" um die Aufbewahrung von Informationen. Ohne das Konzept des Hamiltonian würde diese Gleichung und die entsprechende Erhaltung der Information nicht existieren.

Die Hamilton-Gleichung ist also wichtig, weil sie es ermöglicht, unabhängige Systeme im Rahmen der Informationstheorie (woraus die Wahrscheinlichkeitstheorie folgt) unabhängig zu behandeln, wie dies am ersten Punkt in der ersten Antwort angedeutet wurde. Darauf baut die statistische Mechanik auf. Auch die Thermodynamik würde mit dem Konzept der Energie nicht existieren. Da unabhängige Systeme durch ihre Energie beschrieben werden, ist diese extensiv, additiv.

Interessanterweise hängen alle umfangreichen Variablen in der Thermodynamik mit Änderungen des Phasenraums zusammen. Volumen wächst, volumenbedingter Phasenraum ändert sich, kinetische Energie nimmt ab (impulsbedingter Phasenraum verkleinert), in adiabatischen Systemen, damit der Gesamtinformationsgehalt konstant bleibt (und damit die Entropie).

Ohne Energie gibt es also keine Entropie, keine Information, keinen Phasenraum, kein E=mc^2.

Wieso den ? Ohne Energie gibt es keine Unabhängigkeit zwischen isolierten Systemen.

Warum ist das falsch? Theorien (Algorithmen), die unabhängige Systeme beschreiben, haben eine additive Kolmogorov-Komplexität. Ohne das Konzept der Energie hätten Theorien diese Eigenschaft nicht und würden daher Occams Rasiermesser nicht gehorchen, daher wären sie unnötig komplexer als nötig. Wäre weniger richtig.

Im Rahmen der Solomonoffschen Theorie lässt sich diese Aussage begründen.

Sie bringen gute Argumente vor, aber sind die Lagrange-Funktionalitäten unabhängiger Systeme nicht auch additiv?
Nein. Warum sollten sie es sein? Sie können sie zusammenzählen, aber das hat keine Beziehung zu Phasenraum / Entropie / Informationstheorie / Thermodynamik / Erhaltungssätzen / nichts. JEDOCH ! Der Lagrange-Ansatz hat noch eine weitere Stärke: das Variationsprinzip. youtube.com/watch?v=KdFo6eoW9x4 Das ist auch fantastisch.
und, als zusätzliche Note: Virial Theorem. en.wikipedia.org/wiki/Virial_theorem physical.stackexchange.com/questions/32896/… Das Virialtheorem folgt aus dem Prinzip der kleinsten Aktion. Das kann also etwas Inspiration liefern – worüber ich selbst nachdenken muss!
Ich würde sogar in Betracht ziehen, dass dies eine Art Dualismus ist. Lagrangian ist ein zeitunabhängiger, während Hamiltonian ein raumunabhängiger Ansatz ist. Mit anderen Worten, Lagrange basiert auf räumlicher Variation, aber nicht auf zeitlicher Variation. Der Hamilton-Operator basiert auf Zeitvariation (Zeitentwicklung), aber nicht auf Raumvariation (muss keine räumliche Ableitung haben).
discourse.mc-stan.org/t/… wird hier hoffentlich auch diskutiert :)

In der algorithmischen Informationstheorie (Leibniz, Kolmogorov, Chaitin) gibt es ein Konzept, „elegante Programme“. Dies sind minimale Programme, die eine bestimmte binäre Sequenz erzeugen können. Wir können eine Analogie mit der Physik oder jeder anderen axiomatischen Theorie herstellen (diese Analogie wurde von Chaitin untersucht). Der Lagrange-, Hamilton-Formalismus (mit dem Min-Action-Prinzip) stellt einen minimalen mathematischen Rahmen dar, der viele experimentelle Daten aus allen Bereichen der Physik, von QFT bis GR, erklären kann. Leider ist in der algorithmischen Informationstheorie der Beweis, dass ein Programm „elegant“ ist, kein triviales Problem. Ob der Lagrange-/Hamilton-Formalismus der bestmögliche ist, ist nach dieser Analogie kein triviales Problem. Um Ihre Frage zu beantworten, der Punkt ist "Eleganz",

Genau ... mein Punkt war folgender.
Aber ... es gibt kein kostenloses Mittagessen ... also ... das ist wohl Ihr Punkt.
AFAIK das gibt eine nette def. für Eleganz: en.wikipedia.org/wiki/…