Eine Frage zur Fehleranalyse, bitte helfen?

Also machen wir im Unterricht ein Experiment zur Periode eines Pendels, bei dem Sie die Schwingungsdauer mit einer Stoppuhr messen.

Das Laborhandbuch zeigt nun, wie die Fehleranalyse durchgeführt wird, indem der Mittelwert berechnet und die Standardabweichung ermittelt wird. Ich bekomme so viel. An anderer Stelle habe ich jedoch gelesen, dass der Messfehler die kleinste Einheit ist, die auf dem Messgerät möglich ist, so dass beispielsweise auf einem Meterstab, dessen kleinste Einheit 1 mm ist, der Fehler / die Unsicherheit bei jeder Messung 1 mm betragen würde (oder 0,5 mm heißt es an anderer Stelle, Ich nehme an, es ist die kleinste Einheit, die Sie sicher schätzen können).

Wenn ich also 10 Messungen an einem Stück Schnur durchführen würde, hätte jede Messung eine Unsicherheit von 1 mm. Wenn ich nun den Durchschnitt davon berechnete, wäre die Unsicherheit 1 mm oder müsste ich die Formeln für die Fortpflanzung von Fehlern verwenden, um die Unsicherheit des Durchschnitts zu berechnen. Oder lassen wir diese 1 mm außer Acht und berechnen einfach den Mittelwert und die Standardabweichung?

Trifft es zu, dass die Standardabweichung alle Unsicherheitsquellen beinhalten würde, also die 1mm-Messunsicherheit sowie andere. Wenn ja, welchen Sinn hat es, den Messfehler überhaupt zu notieren, wenn er in die statistische Auswertung einfließt?

Kann mir jemand helfen? Ich weiß, dass ich ein grundlegendes Missverständnis mache, aber ich habe Mühe, es herauszufinden.

"Nun, das Laborhandbuch zeigt, wie man die Fehleranalyse durchführt, indem man den Mittelwert berechnet und die Standardabweichung erhält. Ich bekomme so viel.": Dies ist wahrscheinlich das einfachste Beispiel für eine statistische Schätzung, aber nehmen Sie es nicht so ein universelles gesetz: nicht bei jeder wiederholten messung muss man den mittelwert bilden und nicht bei jeder wiederholten messung kann die unsicherheit durch die standardabweichung bewertet werden.
"Allerdings habe ich an anderer Stelle gelesen, dass der Messfehler die kleinste Einheit ist, die auf dem Messgerät möglich ist": Das ist stattdessen völlig falsch: Wo immer Sie es lesen, vergessen Sie es und werfen Sie die Quelle in den Kamin.
www2.fiu.edu/~dbrookes/ExperimentalUncertaintiesCalculus.pdf Abschnitt 1.1 erklärt, was ich meine, falls ich es nicht klar erklärt habe
Beachten Sie, dass Ihr verknüpftes Dokument, obwohl es in vielen Punkten falsch ist, nicht das sagt, was Sie in der Frage gemeldet haben.
„Jedes Messgerät hat eine inhärente Unsicherheit, die durch die Präzision des Instruments bestimmt wird. Dieser Wert wird als die Hälfte des kleinsten Inkrements der Instrumentenskala genommen.“ und meins: „An anderer Stelle habe ich jedoch gelesen, dass die Fehler in Messungen liegen die kleinste Einheit, die auf dem Messgerät möglich ist, also zum Beispiel auf einem Meterstab, dessen kleinste Einheit 1 mm ist, wäre der Fehler / die Unsicherheit bei jeder Messung 1 mm (oder 0,5 mm, wie es an anderer Stelle heißt, ich nehme an, es ist die kleinste Einheit, die Sie sicher schätzen können) ."

Antworten (1)

Es gibt einen Unterschied zwischen Unsicherheit und Irrtum. Unsicherheit ist der maximal mögliche oder maximal wahrscheinliche Fehler. Fehler, ist der tatsächliche Fehler in der Messung.

In Ihrem Meterstab-Beispiel ist die Unsicherheit eine Frage des Vertrauens in Ihre Messung. Einige werden behaupten, dass Sie nur bis zu 1 mm messen können, da dies die kleinste Schrittweite auf dem Gerät ist. Tatsächlich ist es üblich, eine Stufe tiefer zu gehen, d. h. es wird normalerweise davon ausgegangen, dass Sie eine Stufe mehr genau schätzen können, als der Meterstab anzeigt, sodass Sie auf den nächsten Zehntelmillimeter messen können. Um anzuerkennen, dass diese letzte Ziffer oft eine Schätzung war, würden Sie dann sagen, dass die Unsicherheit +/- 0,3 mm statt +/- 0,1 mm beträgt. Bei keinem digitalen Gerät haben Sie diese Möglichkeit, einen weiteren Pegel zu extrapolieren, also müssen Sie den Messwert direkt vom Gerät ablesen und dann die inhärente Unsicherheit des Geräts kennen. Nur weil eine digitale Stoppuhr beispielsweise 0,001 Sekunden anzeigt, kann das Gerät tatsächlich 0 zählen. 003 zu einem Zeitpunkt, was zu einer Unsicherheit im Messwert führt, die höher ist als die niedrigstwertige Ziffer. Diese Zahlen sind jedoch die Unsicherheit im Gerät, der tatsächliche Fehler der Messwerte.

Um den tatsächlichen Fehler zu berechnen, gehen Sie jedoch zu einer statistischen Analyse der Daten, z. B. Mittelwert und Standardabweichung. Nehmen wir zum Beispiel an, Sie hätten 100 Personen das gleiche Objekt mit dem gleichen Meterstab messen lassen. Die Unsicherheit des Meterstabs ist für alle gleich, sagen wir, Sie akzeptieren die von mir vorgeschlagenen +/- 0,3 mm. Aber sie werden nicht alle die gleiche Messung erhalten. Einige werden falsch messen. Einige schätzen die letzte Ziffer anders ein usw. Die meisten sollten jedoch innerhalb dieser +/- 0,3 mm liegen. Sie würden dann Ihren Mittelwert und Ihre Standardabweichung erhalten, um das zu erhalten, was Sie als die tatsächliche Messung und den berechneten Fehler in dieser Messung betrachteten. Oft würden Sie dies auch verfeinern, indem Sie alle Messungen, die mehr als 0,3 mm von den anderen abweichen, als Messfehler wegwerfen, oder vielleicht solche mit mehr als 2 Standardabweichungen usw.