Welcher Fehler soll bei der Messung verwendet werden?

Ich habe eine Frage zu Fehlern, die mich immer ratlos gemacht hat. Es ist, welcher Fehler bei einer Messung angegeben werden sollte. Nehmen wir an, ich habe eine sehr einfache Situation mit einer Kraft auf eine Feder. Für

F = k X

typischerweise wird die Kraft (F) gegen die Ausdehnung (x) aufgetragen. Um den Fehler zu berechnen, könnte man den Fehler verwenden

σ F 2 = ( F β ich ) 2 σ β ich 2

was eine einfache, aber effektive Schätzung des Fehlers liefert. Diese Gleichung nimmt unabhängige, unkorrelierte Werte an. Wenn die Variablen β miteinander korrelieren, sind die Kovarianzen nicht vernachlässigbar. Wenn also die Funktion eine Reihe von Variablen zusammen mit den zugehörigen Fehlern umfasst, wie z a , müssen die einzelnen Fehler propagiert werden. Die Fehlerfortpflanzungsgleichung wird in Matrixform ausgedrückt als:

σ F 2 = G T v G
in welchem σ F 2 stellt die Varianz einer Funktion dar F dessen Parameter sind β , deren Varianz-Kovarianz-Matrix ist v mit dem ich te Element des Vektors G Sein F β ich . [Ich weiß, dass diese Form besser ist, aber trotz Recherchen habe ich Schwierigkeiten, sie umzusetzen].

Während meiner Anpassung mit Python mit Skript gibt es die Kovarianz jedes Parameters aus, den es angepasst hat. Vermutlich wie oben. Angenommen, es berechnet die Kovarianz für die Federkonstante. Was soll ich in diesem Fall als Fehler auf k verwenden? Soll er mit den Fehlern der einzelnen Elemente wie in der ersten Fehlerfortpflanzungsgleichung oder mit der von scipy erzeugten Kovarianz berechnet werden. Sicherlich berechnet die Kovarianz nur die Streuung der Punkte und nicht den Fehler selbst, da sie den Fehler der Anfangsmessungen nicht berücksichtigt. Außerdem wäre die Mittelung des größten und kleinsten Gradienten getrennt von diesen beiden Methoden zur Berechnung des Fehlers auf dem Gradienten k?

Entschuldigung für den langen Beitrag, für mich ist es sehr verwirrend, welche Fehler was bedeuten und welche verwendet werden sollten.

Korrelation bedeutet typischerweise linear abhängig. Variablen können unkorreliert, aber abhängig sein. Welche Art von Abhängigkeit vermuten Sie?
In meinem Fall sind die Variablen meiner Meinung nach voneinander abhängig, daher ist die Kovarianz nicht unbedeutend. In dem einfachen Fall in der Frage gehe ich jedoch davon aus, dass sie unabhängig sind
Ich verstehe nicht? Wenn sie unabhängig sind, sind sie unkorreliert. (Abhängigkeit bedeutet unkorreliert, aber unkorreliert bedeutet nicht Unabhängigkeit. Siehe Statistik-Lehrbuch.) Möglicherweise ist eine statistische Software erforderlich, die ANOVA (Varianzanalyse) durchführt.

Antworten (1)

Mit einer einzigen Eingangsvariablen X die Kovarianz-"Matrix" des Schätzers ist eine einzelne Zahl: die Varianz des Schätzers. Wenn Sie wirklich an diesem Fall interessiert sind, habe ich die Frage nicht verstanden.

Ich verstehe Ihre Frage, wenn wir das Modell betrachten F ( X 1 , X 2 ) = k 1 X 1 + k 2 X 2 mit zwei Eingangsvariablen. In diesem Fall liefert die (kleinste quadratische) lineare Regressionsanpassung a ( 2 × 2 ) -Kovarianzmatrix,

C Ö v [ β ^ ] = ( v A R [ β ^ 1 ] C Ö v [ β ^ 1 , β ^ 2 ] C Ö v [ β ^ 2 , β ^ 1 ] v A R [ β ^ 2 ] )
Wo β ^ 1 Und β ^ 2 sind die Punktschätzer.

  • Die Punktschätzer (=best fit value) sind die Erwartungswerte der Schätzer, E [ β ^ ich ] = β ^ ich = k ich .
  • Die Unsicherheiten der Schätzer werden normalerweise als Standardabweichung der Schätzer angenommen, S D [ β ^ ich ] = σ β ^ ich . Daher verwenden wir das (Quadratwurzel des) Diagonalelement der Kovarianzmatrix.

Obwohl dies die Standardmethode ist, sollte sie nicht verwendet werden , wenn die beiden Eingabevariablen kollinear sind (so nennen wir "korrelierte" Eingabevariablen). Daher sollte als erstes die Schwere der Kollinearität quantifiziert werden. Sie könnten zB den Varianz-Inflationsfaktor verwenden .

Wenn die Kollinearität "schwer" ist, Sie aber gerne ein Modell mit den ursprünglichen Eingabeparametern verwenden, schlage ich vor, dass Sie es mit der Ridge-Regression oder dem Lasso versuchen. Eine Alternative wäre, die beiden Parameter zu kombinieren und einen einzigen "effektiven" Parameter zu verwenden. Diese Methode wird als Hauptkomponentenanalyse bezeichnet .

Daher lautet die einfache Antwort auf Ihre Frage: Verwenden Sie nicht die Anpassung der kleinsten Quadrate, wenn Ihre Eingabevariablen kollinear sind.