Was ist der Unterschied zwischen Unsicherheit und Standardabweichung?

Im Physikpraktikum lernen wir etwas über Unsicherheit und Fehlerfortpflanzung. Letzte Woche haben wir gelernt, wie man die Unsicherheit eines berechneten Werts mithilfe der Gleichung findet

δ F = ( F X ) δ X + ( F j ) δ j
Wenn F ist eine Funktion von x und y. Mein Lehrer hat uns gezeigt, wie diese Gleichung aus der Schneiderserie kommt.

Diese Woche haben wir gelernt, wie man die statistische Version der Unsicherheit mithilfe der Gleichung findet

σ F = ( F X σ X ) 2 + ( F j σ j ) 2

Mein Lehrer sagt uns, dass dies die statistische Version der Unsicherheit ist, die uns 68 Prozent der gesamten Unsicherheit gibt. Mit dieser Definition tue ich mich schwer. Es scheint, wenn dies wahr wäre, könnten wir die zuvor angegebene Gleichung einfach mit 0,68 multiplizieren.

Aus dem, was ich in meinem Statistikunterricht gelernt habe, muss man, wenn man Standardabweichungen addiert, auch ihre Quadrate (Varianzen) addieren. Ich kann sehen, wie diese Gleichung Sinn machen würde, wenn wir versuchen würden, die Standardabweichung eines berechneten Werts zu finden, aber mein Lehrer sagt uns, dass wir die Unsicherheit für x einsetzen müssen σ X und die Unsicherheit für y in σ j .

Sind die beiden Symbole δ X Und σ X dasselbe darstellen? Ich bin verwirrt, wie die zweite Gleichung gültig ist. Wird die zweite Gleichung verwendet, um die Standardabweichung oder die Unsicherheit zu finden? Verwenden Physiker das Wort Standardabweichung nur, um sich auf Unsicherheit zu beziehen? Warum setzen wir nicht die Standardabweichungen der Verteilungen von x und y für ein σ X Und σ j , die mit gefunden werden kann 1 N 1 Σ ich ( X ich X ¯ ) . Wenn σ F Tatsächlich wird die Standardabweichung der Verteilung berechnet F , dann Einstecken der Unsicherheiten für σ X Und σ j macht keinen Sinn. Würde dies nicht bedeuten, dass Sie die Standardabweichung manipulieren könnten σ F nur durch welche Werte Sie für Ihre Unsicherheiten wählen.

Außerdem wird uns in meiner Laborklasse beigebracht, unsere Unsicherheiten auf der Grundlage dessen zu wählen, was wir für die Grenzen unserer Instrumente halten. Ich habe jedoch einige andere Leute gesehen, die die Standardabweichung ihrer Messungen verwenden und dies die Unsicherheit nennen. Ist das die gängigere Methode? Ich denke, das würde einige meiner Probleme beseitigen.

Antworten (2)

"Verwenden Physiker das Wort Standardabweichung nur, um sich auf Unsicherheit zu beziehen?" Oft gehen wir davon aus, dass die Ergebnisse unserer Messungen normalverteilt sind (wir können argumentieren, dass, wenn wir den Grund für die Abweichung vom „echten“ Wert nicht kennen, es höchstwahrscheinlich auf viele Faktoren zurückzuführen ist und wenn Sie viele willkürlich haben verteilte Faktoren eine Variable beeinflussen, dann folgt diese Variable der Normalverteilung (Zentraler Grenzwertsatz). Dann können wir ein Maß für die Breite der Normalverteilung als unsere Unsicherheit verwenden, zB die std-Abweichung. Aber natürlich sind Sie grundsätzlich frei in der Wahl, was Sie verwenden, ein Sigma mag jetzt ok sein, aber oft werden Vielfache von Sigma verwendet. Sie wissen vielleicht auch, dass das, was Sie messen, tatsächlich nicht normalverteilt ist, dann müssten Sie ein anderes Unsicherheitsmaß wählen. Wenn es also um Unsicherheiten geht, gibt es keine Einheitslösung. Die Gaußsche Fehlerfortpflanzung basierend auf Standardabweichungen ist jedoch die erste Wahl, wenn es keine Gründe dagegen gibt und in diesem Fall Unsicherheit und ein Vielfaches von Sigma dasselbe wären.

Nun zu der Frage, welche Werte für die Sigmas einzugeben sind. Lassen Sie mich das erwähnen 1 N 1 ich ( X ich X ¯ ) 2 ist nicht die Standardabweichung, sondern ein Schätzer für die "echte" Standardabweichung der Verteilung, die selbst eine Unsicherheit hat (wenn es der echte Wert der Standardabweichung wäre, müsste diese Formel für jede Stichprobe dasselbe Ergebnis liefern). Also "warum setzen wir nicht die Standardabweichungen der Verteilungen ein"? Weil Sie möglicherweise eine bessere Schätzung für die Standardabweichung haben als der Schätzer oben.

"Würde das nicht bedeuten, dass Sie die Standardabweichung σ manipulieren könnten, indem Sie einfach die Werte wählen, die Sie für Ihre Unsicherheiten wählen?" Ja, du kannst. Normalerweise müssten Sie detailliert beschreiben, warum Sie ein bestimmtes Maß an Unsicherheit gewählt haben, und andere könnten Ihre Wahl kritisch sehen und Ihre Ergebnisse deswegen anfechten.

Der Hauptunterschied zwischen diesen Gleichungen ist die Art des Fehlers: Während die erste für systematische Fehler verwendet wird , wird die zweite für zufällige Fehler verwendet .

Die erste Gleichung ist die totale Ableitung einer Funktion F = F ( X , j ) am Punkt ( X 0 , j 0 )

(1) D F = D F ( X 0 , j 0 ) = F ( X 0 , j 0 ) X D X + F ( X 0 , j 0 ) j D j
Dies gilt für jede Funktion und jede Variable. Da systematische Fehler unbekannte Konstanten sind, ist ihre Varianz Null. Gl. (1) sagt uns, wie ein "systematischer Offset" D X erzeugt einen "systematischen Versatz" D F : Die systematischen Fehler D X wird mit der Ableitung gewichtet F X , da die Schwere des Fehlers davon abhängt, wie schnell die Funktion ist F ändert sich um den Punkt ( X 0 , j 0 ) . Deshalb verwenden wir Gl. (1) um den systematischen Fehler zu schätzen.

Im Gegensatz dazu sagt uns Ihre zweite Gleichung, wie Zufallsvariablen sind X Und j die Antwortvariable beeinflussen F ( X , j ) . Durch Quadrieren beider Seiten erhalten wir

(2) v A R [ F ( X 0 , j 0 ) ] ( F ( X 0 , j 0 ) X ) 2 v A R [ X ] + ( F ( X 0 , j 0 ) j ) 2 v A R [ j ]
wo ich benutze σ X 2 = v A R [ X ] . Die Abweichung von X ist ungleich Null, denn wenn wir versuchen, den Eingang auf zu setzen X ich = X 0 , bekommen wir tatsächlich X ich = X 0 + ϵ ich , Wo ϵ ich ist ein zufälliger Fehler. Ich hoffe, diese Aussagen machen das deutlich D X σ X . Obwohl beides „Unsicherheiten“ sind, sind systematische und zufällige Fehler grundlegend verschieden. Randbemerkung: Die Verwirrung bezüglich der Wörter Unsicherheit und Standardabweichung ist verständlich, weil sie oft als Synonyme verwendet werden. Historisch gesehen gibt es jedoch andere "Konventionen". Daher empfehle ich Ihnen dringend, das Wort „Unsicherheit“ nicht zu verwenden, es sei denn, Sie haben es zuvor definiert, oder es nur qualitativ (nicht quantitativ) zu verwenden.

Wie schätzen wir die Varianz ein? v A R [ F ( X , j ) ] in Gl. (2)? Betrachten wir ein einfaches Beispiel, bei dem wir nur eine einzige zufällige Eingabevariable haben X (kein zweiter Eingang j ). Somit haben wir mehrere Möglichkeiten

  1. Legen wir fest X ich = X ich ( T A R G e T ) und die Reaktion erneut messen F ( X ich ) ohne den Zielwert zu ändern X ich ( T A R G e T ) = X 0 = C Ö N S T . Wir wissen, dass die Eingangsvariable entsprechend schwankt X ich = X 0 + ϵ ich . Daher erhalten wir durch mehrmaliges Messen der Antwortvariablen eine Schätzung von v A R [ F ( X 0 ) ] = 1 N 1 ich = 1 N ( F ich F ¯ ) 2 . Obwohl wir keine Möglichkeit haben, dies zu bestimmen v A R [ X ich ] , erhielten wir eine Schätzung von v A R [ F ( X 0 ) ] ohne die Fehlerfortpflanzung zu verwenden. Beachten Sie, dass der systematische Fehler nicht darin enthalten ist v A R [ F ( X ) ] .
  2. Legen wir fest X ich = X ich ( T A R G e T ) und ändern Sie die Sollwerte X ich ( T A R G e T ) . Die sogenannten Residuen R ( X ich ) = F ( X ich ) F ( X ¯ ) sind die zufälligen Fehler ϵ F . Daher, v A R [ F ( X ich ) ] = v A R [ R ( X ich ) ] liefert eine Schätzung der Varianz der Antwortvariablen.
  3. Wir können das Handbuch unserer Messgeräte überprüfen und deren Genauigkeit als Schätzung verwenden v A R [ F ( X ich ) ] . Es gibt ausgefallene Möglichkeiten, eine genauere Schätzung zu erhalten - unter der Annahme einer Wahrscheinlichkeitsverteilung, aus der der Zufallsfehler abgetastet wird -, dies geht jedoch über Ihre Frage hinaus.
  4. Wir können einen zufälligen Fehler erraten σ X und verwenden Sie die Fehlerfortpflanzungsformel, Gl. (2), um zu prüfen, wie das Ergebnis beeinflusst wird. Dies ist sicherlich die am wenigsten objektive Methode.