Verständnis der Terminologie der Fehleranalyse

Ich arbeite in einem Labor und die Terminologie in der Fehleranalyse verwirrt mich. Nehmen wir an, ich habe eine Theorie, die behauptet, dass die Feinstrukturkonstante genau 1/137 beträgt. Meine aktuelle Referenz sagt mir, dass die besten experimentellen Messungen 0,0072973525693 ergeben.

Was ist dann die minimale Genauigkeit, die ich für dieses Experiment benötige? Meine Vermutung ist, dass dies die Genauigkeit sein muss, die ich anstreben sollte, da sich die beiden Größen in der Größenordnung von 0,000001 unterscheiden.

In vielen Berichten, die ich lese, heißt es: 3 σ ' gebunden (im Kontext sehe ich "obere Grenze der Unsicherheit, die mindestens durch unterschieden werden kann 3 σ "). Ich bin verwirrt darüber, was dies bedeutet und wie dies in dem von mir bereitgestellten Beispiel gelten würde. Wenn ich mich richtig an meine Statistiken erinnere, müsste ich eine Normalverteilung berücksichtigen N ( μ , σ 2 ) und um zu sehen, wie die Wahrscheinlichkeit variiert, dass ein Wert innerhalb liegt N σ 'S.

Antworten (2)

Normalerweise würden Sie mehrere Messungen der interessierenden Größe durchführen. Angenommen, Sie tun es N Messungen mit den Ergebnissen

X 1 , X 2 , . . . X N ,
dann können Sie unter der Annahme, dass die Verteilung normal ist, ihren Mittelwert und ihre Standardabweichung schätzen als
M = 1 N k = 1 N X k , S 2 = 1 N 1 k = 1 N ( X k M ) 2 .
ich schreibe M , S anstatt μ , σ um die geschätzten Mengen von den tatsächlichen (unbekannten) zu unterscheiden.

Ein paar Kommentare:

  • Es gibt statistische Tests, um die Normalität zu überprüfen. Es ist normalerweise eine gute Annahme, aber nicht immer
  • Vielleicht möchten Sie Konfidenzintervalle , Chi-Quadrat-Test , Hypothesentests usw. auffrischen/lesen , da Sie wahrscheinlich schnell auf diese stoßen werden.

Es gibt ein bekanntes Kapitel einer Teilchenphysikgruppe, in dem die wesentlichen Statistikkonzepte in J. Beringer et al. (PDG), PR D86, 010001 (2012) ( http://pdg.lbl.gov ) beschrieben werden .

Eine inhärente Eigenschaft einer Messung ist, dass sie streut. Wenn wir also eine Probe nehmen, die enthält N = 100 Datenpunkte, die alle dasselbe messen (=Ihre Feinstrukturkonstante), erhalten wir wahrscheinlich 100 verschiedene Werte. Daher stellt sich natürlich die Frage, welches die richtige Messung ist oder gibt es einen besseren Weg, um den "wahren" Wert zu erhalten? Im Allgemeinen ist der Durchschnittswert ein „guter“ Schätzer für den wahren Wert.

Wenn wir die Details überspringen, dürfen wir (meistens) sagen, dass der Durchschnittswert normalverteilt ist. Ist die Standardabweichung einer Einzelmessung σ ϵ und wir nehmen N unabhängigen Messungen, dann ist die "Unsicherheit" (=Standardabweichung) des Mittelwertes σ ϵ / N . Indem wir also immer mehr Messungen durchführen, können wir die Unsicherheit verringern – vorausgesetzt, wir berücksichtigen keinen systematischen Fehler in unseren Daten.

Schließlich bezieht sich Ihre Frage auf die Zuverlässigkeit Ihres Messergebnisses. Angenommen, Ihr gemessener Durchschnittswert ist a ¯ und Sie möchten wissen, wie sicher Sie sein sollten, dass die Literatur wertvoll ist a 0 ist falsch. Nun, Sie können die folgende Frage stellen: Angenommen, der Literaturwert ist korrekt, aber meine experimentelle Unsicherheit (Standardabweichung) ist es σ ϵ . Wie groß ist die Wahrscheinlichkeit, dass ich einen Wert messe, der mindestens ist k Standardabweichungen kleiner als der Literaturwert? Die Antwort gibt die sogenannte kumulierte Wahrscheinlichkeit, cumProbdie ich aufgetragen habe X Achse in Einheiten von σ = σ ϵ / N .