Binning oder einfaches Überspringen von Werten in einer Simulation, um Autokorrelation zu vermeiden

Gegeben sei ein Datensatz aus einer generischen Monte-Carlo-Simulation X ich , ( 1 = 1 , . . . , N ) , wird Autokorrelation zwischen Datenpunkten innerhalb der Relaxationszeit erwartet τ (Korrelationszeit) Abstand zueinander.

Jetzt weiß ich, dass ein möglicher Ansatz zum Reduzieren / Vermeiden der Korrelation darin besteht, Bins einzurichten, die viel größer als die Relaxationszeit sind, und einen Durchschnitt aus jedem Bin sowie einen Fehler zu berechnen.

Was, wenn ich nur eine Initiale betrachte X ich und springe dann zum nächsten X ich + τ und so weiter und so fort für X ich + 2 τ , X ich + 3 τ ... diese neuen Proben im Wesentlichen als unkorreliert betrachten? In diesem Fall berechne ich keine Durchschnittswerte und Fehler, ich überspringe nur genügend Punkte, um die verbleibenden irgendwie unkorreliert zu machen.

Ich habe in der Literatur über beide Ansätze gelesen, bin mir aber nicht sicher, ob sie beide praktikabel sind.

Antworten (1)

Beide von Ihnen beschriebenen Ansätze sind irgendwie praktikabel und sollten ähnliche Ergebnisse liefern. Offensichtlich im Fall von nur Abtasten von Datenpunkten in Intervallen von τ , werfen Sie die Zwischendatenpunkte weg; Sie können jedoch vernünftigerweise davon ausgehen, dass diese nicht wesentlich mehr Informationen enthalten, da sie angesichts dessen stark mit den Datenpunkten korrelieren, die Sie abtasten τ in der Größenordnung der Korrelationszeit liegt. Aber ich würde denken, dass es nichts zu verlieren gibt, wenn man die Binning-Methode anwendet.

Ich sage "irgendwie", weil beide Methoden voraussetzen, dass Sie die Korrelationszeit kennen, bevor Sie beginnen. Viel wichtiger ist (meiner Meinung nach) die Wahl eines Datenanalyseverfahrens, das im Wesentlichen die Korrelationszeit im Rahmen der Fehlerschätzung bestimmt. Die klassische Arbeit dazu ist Flyvbjerg und Petersen J Chem Phys, 91,461 (1989), und diese verwendet den Binning-Ansatz. Kurz gesagt, Sie beginnen mit einer Varianz, die aus jedem einzelnen Datenpunkt berechnet wird. Dann mitteln Sie jedes aufeinanderfolgende Paar von Datenpunkten, wodurch Sie halb so viele Datenpunkte erhalten, die jeweils einen Bin der Länge 2 darstellen, und Sie berechnen die Varianz dieser Datenpunkte. Der Prozess setzt sich rekursiv mit Bins der Länge 4, 8, 16 usw. fort und kann ziemlich kostengünstig programmiert werden. Ihre Analyse, die auf Renormalisierungsideen basiert, zeigt, wie die Varianzen in einer Formel verwendet werden können, die gegen die beste Schätzung des Fehlers im Mittel konvergiert (vorausgesetzt, der Simulationslauf ist lang genug). Das Verfahren ist in den meisten Simulationslehrbüchern beschrieben.