Warum führen Wiederholungsmessungen zu einem reduzierten Fehler?

Ich lese gerade "Concepts in Thermal Physics" und im Kapitel über unabhängige Variablen gibt es das folgende Beispiel:

Wenn wir haben N unabhängige Variablen X ich , jeweils mit einem Mittelwert X , und eine Abweichung σ X 2 , können wir sie summieren, um Folgendes zu erhalten:

Y = ich N X ich Y = ich N X ich = N X σ Y 2 = N σ X 2

Ich verstehe die Ableitung von all dem gut, jedoch wird dann Folgendes gesagt:

Die in diesem letzten Beispiel bewiesenen Ergebnisse haben einige interessante Anwendungen. Die erste betrifft experimentelle Messungen. Stellen Sie sich das eine Menge vor X wird gemessen N Mal, jedes Mal mit einem unabhängigen Fehler, den wir nennen σ X . Wenn Sie die Ergebnisse der zu machenden Messungen addieren Y = ich X ich , dann kommt der RMS-Fehler rein Y ist nur N mal den Effektivwertfehler eines einzelnen X . Wenn Sie also versuchen, eine gute Schätzung zu erhalten X durch Rechnen ( ich X ich ) / N , der Fehler in dieser Menge ist gleich σ X / N .

Ich bin mir nicht ganz sicher, was sie hier mit dem mittleren quadratischen Fehler meinen. Ist das nur eine andere Art, die Standardabweichung zu sagen? Wenn ja, in welchem ​​Sinne kann das obige Beispiel zu der folgenden Aussage führen?

Ich persönlich kann dies nur sinnvoll sehen, wenn sie den Fehler in einer einzelnen Messung als Standardabweichung einer Wahrscheinlichkeitsverteilung modellieren. Das scheint mir nicht richtig zu sein, ist das tatsächlich das, was sie tun?

Antworten (2)

Zu Ihrer ersten Frage zum RMS-Fehler:

Nennen Sie den wahren Wert von X Ist X ¯ , und du hast gemessen X ich (was im Durchschnitt sein sollte X ¯ ).

Der Messfehler wäre: X ich X ¯ .

Der Mittelwert des Quadrats der Fehler wäre ( X ich X ¯ ) 2 das ist genau die Varianz.

Die Wurzel aus dem Mittelwert der Quadrate ist die Quadratwurzel der Varianz, also der Standardabweichung.


Zweitens, nachdem Sie hatten N Messungen, die Sie schätzen möchten X ¯ , also mitteln Sie Ihre Messungen und erhalten X ich . Dies kann natürlich nicht genau gleich sein X ¯ weil all diese Zahlen auf einem Kontinuum stehen. Wie weit sind Sie also von der Wahrheit entfernt? Der zentrale Grenzwertsatz sagt uns, dass nach ausreichender Messung unabhängig von der Verteilung von X ich , Ihre Schätzung verhält sich wie eine Gaußsche mit einem Mittelwert von X ¯ und Standardabweichung von σ N , was bedeutet, je mehr Sie erhöhen N , desto schmaler wird Ihr Gaußscher Wert sein und desto näher wird Ihre Schätzung an der Wahrheit sein. Die Intuition dahinter ist, wie @Physics Enthusiast antwortete.

Ich verstehe, was Sie sagen, und danke für die Central-Limit-Theorie! Aber in diesem Fall sagt die Aussage, dass jede Messung einen Fehler hat σ X , aber der Fehler bei einer einzelnen Messung ist keine Standardabweichung einer Verteilung, sondern ein einzelner Wert. Zweitens habe ich gesehen, dass der Effektivwert so berechnet wurde:
1 N ich N σ X ich 2
Aber es scheint in der Aussage, dass alle σ X ich sind gleich, also hättest du:
σ X 2 = σ X
Nicht der σ X N wie erwartet.
@Connor Physiker verwenden das Wort Fehler gerne auf zwei verschiedene (aber verwandte) Arten: Manchmal meinen sie den wahren Fehler X ich X ¯ und manchmal bedeuten sie die Standardabweichung der Verteilung von X ich , Bedeutung, σ X . Zur zweiten Frage gibt es den Effektivwert der Fehler X ich , welches ist σ X wie Sie berechnet haben, und es gibt eine Standardabweichung des Durchschnitts der Messungen, die eine Verteilung mit einer niedrigeren Standardabweichung als jede der Messungen hat - das ist der Punkt dieses Absatzes, je mehr Messungen Sie machen, desto mehr wird Ihr Durchschnitt sein präzise.
Okay! Danke, das macht sehr viel Sinn. Kann man also sagen, dass die Aussage in diesem Fall etwas schlampig bei der Definition von Begriffen ist? Oder sind Effektivwertfehler und Standardabweichung austauschbar?
Beide Aussagen sind richtig :)

Nehmen wir an, Sie tun es N Messungen und addieren Sie die Ergebnisse der Messungen. Der Grund ist der RMS-Fehler in der Summe nicht N multipliziert mit dem Effektivwert eines einzelnen Fehlers ist, dass angenommen wird, dass die Fehler unabhängig sind ("jedes Mal mit einem unabhängigen Fehler"), sodass sie sich bis zu einem gewissen Grad gegenseitig aufheben (dh ein Experiment könnte einen positiven Fehler ergeben, das nächste Experiment könnte einen negativen Fehler geben usw.).

Sie würden also intuitiv sagen, dass Sie durch die Wiederholung des Experiments eine Fehlerverteilung erhalten, aus der Sie eine Standardabweichung erhalten, die als reduzierter Fehler angesehen wird?
Ich glaube nicht, dass ich es so formulieren würde, aber ich denke, Ihre Gesamtidee ist richtig. Der Schlüssel ist, sicherzustellen, dass Sie verstehen, dass das Wort Fehler auf zwei Arten verwendet werden kann (@Ofek Gillon erklärt dies sehr gut in der Hauptantwort sowie in dem Kommentar, der mit „Physicists like to use the word error .. .")