Also machen wir im Unterricht ein Experiment zur Periode eines Pendels, bei dem Sie die Schwingungsdauer mit einer Stoppuhr messen.
Das Laborhandbuch zeigt nun, wie die Fehleranalyse durchgeführt wird, indem der Mittelwert berechnet und die Standardabweichung ermittelt wird. Ich bekomme so viel. An anderer Stelle habe ich jedoch gelesen, dass der Messfehler die kleinste Einheit ist, die auf dem Messgerät möglich ist, so dass beispielsweise auf einem Meterstab, dessen kleinste Einheit 1 mm ist, der Fehler / die Unsicherheit bei jeder Messung 1 mm betragen würde (oder 0,5 mm heißt es an anderer Stelle, Ich nehme an, es ist die kleinste Einheit, die Sie sicher schätzen können).
Wenn ich also 10 Messungen an einem Stück Schnur durchführen würde, hätte jede Messung eine Unsicherheit von 1 mm. Wenn ich nun den Durchschnitt davon berechnete, wäre die Unsicherheit 1 mm oder müsste ich die Formeln für die Fortpflanzung von Fehlern verwenden, um die Unsicherheit des Durchschnitts zu berechnen. Oder lassen wir diese 1 mm außer Acht und berechnen einfach den Mittelwert und die Standardabweichung?
Trifft es zu, dass die Standardabweichung alle Unsicherheitsquellen beinhalten würde, also die 1mm-Messunsicherheit sowie andere. Wenn ja, welchen Sinn hat es, den Messfehler überhaupt zu notieren, wenn er in die statistische Auswertung einfließt?
Kann mir jemand helfen? Ich weiß, dass ich ein grundlegendes Missverständnis mache, aber ich habe Mühe, es herauszufinden.
Es gibt einen Unterschied zwischen Unsicherheit und Irrtum. Unsicherheit ist der maximal mögliche oder maximal wahrscheinliche Fehler. Fehler, ist der tatsächliche Fehler in der Messung.
In Ihrem Meterstab-Beispiel ist die Unsicherheit eine Frage des Vertrauens in Ihre Messung. Einige werden behaupten, dass Sie nur bis zu 1 mm messen können, da dies die kleinste Schrittweite auf dem Gerät ist. Tatsächlich ist es üblich, eine Stufe tiefer zu gehen, d. h. es wird normalerweise davon ausgegangen, dass Sie eine Stufe mehr genau schätzen können, als der Meterstab anzeigt, sodass Sie auf den nächsten Zehntelmillimeter messen können. Um anzuerkennen, dass diese letzte Ziffer oft eine Schätzung war, würden Sie dann sagen, dass die Unsicherheit +/- 0,3 mm statt +/- 0,1 mm beträgt. Bei keinem digitalen Gerät haben Sie diese Möglichkeit, einen weiteren Pegel zu extrapolieren, also müssen Sie den Messwert direkt vom Gerät ablesen und dann die inhärente Unsicherheit des Geräts kennen. Nur weil eine digitale Stoppuhr beispielsweise 0,001 Sekunden anzeigt, kann das Gerät tatsächlich 0 zählen. 003 zu einem Zeitpunkt, was zu einer Unsicherheit im Messwert führt, die höher ist als die niedrigstwertige Ziffer. Diese Zahlen sind jedoch die Unsicherheit im Gerät, der tatsächliche Fehler der Messwerte.
Um den tatsächlichen Fehler zu berechnen, gehen Sie jedoch zu einer statistischen Analyse der Daten, z. B. Mittelwert und Standardabweichung. Nehmen wir zum Beispiel an, Sie hätten 100 Personen das gleiche Objekt mit dem gleichen Meterstab messen lassen. Die Unsicherheit des Meterstabs ist für alle gleich, sagen wir, Sie akzeptieren die von mir vorgeschlagenen +/- 0,3 mm. Aber sie werden nicht alle die gleiche Messung erhalten. Einige werden falsch messen. Einige schätzen die letzte Ziffer anders ein usw. Die meisten sollten jedoch innerhalb dieser +/- 0,3 mm liegen. Sie würden dann Ihren Mittelwert und Ihre Standardabweichung erhalten, um das zu erhalten, was Sie als die tatsächliche Messung und den berechneten Fehler in dieser Messung betrachteten. Oft würden Sie dies auch verfeinern, indem Sie alle Messungen, die mehr als 0,3 mm von den anderen abweichen, als Messfehler wegwerfen, oder vielleicht solche mit mehr als 2 Standardabweichungen usw.
Massimo Ortolano
Massimo Ortolano
RonGiant
Massimo Ortolano
RonGiant