Ich passe ein lineares Polynom an einige Daten an und habe die Fehler für jeden der am besten angepassten Parameter aus der Kovarianzmatrix abgeleitet. Ich würde erwarten, dass diese Fehler a entsprechen 68% Konfidenzintervall, aber ich finde, dass dies nicht der Fall ist.
Wenn ich stattdessen eine Rastersuche durchführe, bei der ich einen der beiden Parameter einfriere und den anderen rastere, suche ich nach den entsprechenden Parameterwerten , erhalte ich ein kleineres Fehlerintervall als bei den Fehlern der kleinsten Quadrate. Laut Bevington (Data Reduction and Error Analysis for the Physical Sciences) ist ein Konfidenzintervall von 68 % für einen einzelnen Parameter durch Parameterwerte gegeben, die den Wert erhöhen -Wert von Zu .
Ich habe dies mit mehreren Codes getestet und alle geben die gleichen Ergebnisse. Kann mir jemand helfen, dieses Verhalten zu verstehen?
Ich denke, das, was Sie beschrieben haben, ist nicht die richtige Methode, um ein Konfidenzintervall von 68% in einem interessierenden Parameter zu schätzen.
Der Fehler liegt im Einfrieren des anderen Parameters beim Minimieren des Chi-Quadrats.
Ein besseres Verfahren zur Bewertung der Unsicherheit in Parameter 1 besteht darin, das minimale Chi-Quadrat für einen Satz von Werten von Parameter 1 zu bewerten, während Parameter 2 variieren kann . Der am besten angepasste Wert von Parameter 1 liegt am globalen Minimum, während eine Schätzung seiner Unsicherheit bereitgestellt wird, indem das Chi-Quadrat von diesem Wert um 1 zunimmt, aber nicht notwendigerweise bei demselben Wert von Parameter 2 .
Wenn Sie Parameter 2 bei seinem besten Anpassungswert einfrieren, unterschätzen Sie die Unsicherheit in Parameter 1. Der Grund dafür ist, dass der Ort der kleinsten Chi-Quadrat-Anpassung in einem Raum von Parameter 1 vs. Parameter 2 (im Allgemeinen) in Bezug geneigt ist zu diesen Achsen.
Der beste Weg, dies zu tun, besteht darin, Chi-Quadrat über den gesamten Parameterraum auszuwerten und dann die Projektion der Chi-Quadrat+1-Kontur auf jede der Parameterachsen zu finden. Ein Bild kann mehr als tausend Worte sagen. Die roten Pfeile zeigen, wie Sie es versucht haben. Die blauen Grenzen zeigen meinen (kostengünstigen) ersten Versuch, die Schätzung zu verbessern, und dann zeigen die schwarzen Pfeile die Projektion der Fehlerellipse auf die x-Achse.
Im Fall einer 2-Parameter-Anpassung ist der 68 %-Konfidenzraum typischerweise eine Ellipse, die nicht notwendigerweise an den Achsen ausgerichtet ist. Wenn Sie die Größe der Ellipse herausfinden möchten, sollten Sie die Ausrichtung der Ellipse finden, nicht nur die Schnittpunkte der Ellipse mit einer horizontalen und vertikalen Linie durch ihren Mittelpunkt.
Beispiel: passen für eine große Menge von Datenpunkten, die herum gruppiert sind . Die Qualität der Passform wird für ziemlich ähnlich sein oder . Aber wenn du dich änderst ohne Veränderung in die entgegengesetzte Richtung (so hast du es gemacht) bekommst du sehr schnell einen schlechten Anfall. Aber das sagt nicht viel über die Ungewissheit aus .
dmckee --- Ex-Moderator-Kätzchen
Paul T.
David z