Wie bestimmt man die Unsicherheit eines Mittelwerts aus mehreren Messungen „richtig“?

Ich bin sehr verwirrt darüber, wie die Unsicherheit des Mittelwerts richtig berechnet wird ( X A v G ) in einem Datensatz von Messungen ( X 1 . . . X N ) . Ich habe im Internet mindestens vier verschiedene Möglichkeiten gefunden, dies zu tun:

  • Methode 1: Unsicherheit ist der Durchschnitt der Abweichungen vom Mittelwert. Das ist,

    Δ X A v G = ( | X A v G X 1 | + . . . + | X A v G X N | ) N
    (wie in diesem Youtube-Video beschrieben )

  • Methode 2: Δ X A v G = R 2 , Wo R ist der Bereich der Werte (aus diesem Youtube-Video )

  • Methode 3: Δ X A v G = R 2 N aus diesem Dokument

  • Methode 4: Δ X A v G = σ N , σ ist die Standardabweichung des Datensatzes (von hier )

Welches ist der richtige Weg?

Wenn die Fehler einzelner Messungen normalerweise um Null herum verteilt sind, ist es am nützlichsten, den zweiten Parameter dieser Normalverteilung zu kennen, den die vierte Methode liefert.

Antworten (3)

Erstens möchten Sie intuitiv ein Maß, das wie folgt abnimmt N steigt, denn je mehr (unabhängige) Messungen Sie machen, desto kleiner erwarten Sie Ihre Unsicherheit. Also Methode 2 ist da eindeutig falsch R 2 wird nicht als abnehmen N erhöht sich. Wenn überhaupt, wird es tendenziell zunehmen N erhöht, da Sie in einem größeren Satz von Messungen mit größerer Wahrscheinlichkeit Ausreißer erhalten.

Zweitens müssen Sie zwischen der erwarteten Unsicherheit in einer einzelnen neuen Messung unterscheiden X N + 1 und die erwartete Unsicherheit im Durchschnitt eines ganzen neuen Satzes von N Messungen. Methode 1, die durchschnittliche Abweichung, ist ein Maß für die Unsicherheit in einer einzelnen neuen Messung. Eine Alternative wäre, die Standardabweichung des ersten zu verwenden N Messungen, σ . Aber Sie wollen die Unsicherheit im Durchschnitt wissen N Messungen, X A v G . Daher ist Methode 1 dafür falsch.

Damit verbleiben Methode 3 und Methode 4. Wenn Sie nur den Messbereich und die Anzahl der Messungen kennen, verwenden Sie Methode 3. Wenn Sie jedoch alle kennen N Einzelmessungen, dann können Sie ihre Standardabweichung berechnen, in diesem Fall sollten Sie Methode 4 verwenden.

Tolle Erklärung, danke.

Eigentlich gibt es keinen besten Weg. In dem von Ihnen zitierten Dokument aus Feder erklären sie Ihnen den Unterschied, ob Sie viele oder nur wenige Daten haben. normalerweise nimmt man an, dass die Fehler statistisch sind und dann ist die letzte Formel die richtige. Δ 𝑥 𝑎 𝑣 𝑔 = 𝑅 / 2 ist für wenige Daten eine gute Schätzung. Die erste Formel ist für eine schnelle Schätzung (meistens in der Schule), wird aber selten in wissenschaftlichen Arbeiten verwendet.

Sie werten den Mittelwert aus und drücken die Unsicherheit im Mittelwert als Standardabweichung des Mittelwerts aus .

Ihre Schätzung des Mittelwerts der Stichprobe mit N Werte ist M = 1 N J = 1 N j J Wo j J ist der J T H Wert in der Probe. Die Standardabweichung des Mittelwerts für die Stichprobe ist S = S N Wo S = J = 1 N ( j J M ) 2 N 1 ist die Standardabweichung für die Stichprobe. Du berichtest M ± S .