Notationen für statistische / systematische / numerische Fehler?

Ich sehe ständig die Notation

5.143 ( 13 )
um anzugeben, dass ein Wert gemessen/berechnet wurde als 5,143 mit einem geschätzten Fehler von 0,013. Ich habe mich jedoch gefragt, wie allgemein akzeptiert die Notation und die Varianten sind. Wenn es allgemein akzeptiert wird, warum habe ich schließlich Literatur gefunden, die ausdrücklich erklärt, was es bedeutet (obwohl es vielleicht nur die Unterscheidung zwischen systematischen und statistischen Fehlern war).

Außerdem bin ich mir nicht sicher, ob es für so etwas noch funktionieren würde

513 ( 30 ) 513 ± 30
oder
51.3 ( 30 ) 51.3 ± 3.0

Ist diese Notation eine allgemein akzeptierte Konvention, von der vernünftigerweise erwartet werden kann, dass sie von Leuten, die eine Arbeit lesen, die jetzt in 50 Jahren geschrieben wird, noch verstanden wird? Wird es in Fällen wie den oben genannten verstanden?

Antworten (1)

In dem Bereich, in dem ich früher gearbeitet habe, ist die Notation mit ± ziemlich üblich. Allerdings ist die Zahl nach dem ± dann meist nicht der Standardfehler, sondern gibt das Konfidenzintervall an. Dies ist normalerweise das 2-fache des Standardfehlers, kann aber auch ein Faktor 3 sein. In Ihrem letzten Beispiel wäre dies 51,3 ± 6,0 bei einem „Abdeckungsfaktor“ von 2.

Anstelle der von Ihnen verwendeten Notation, in der Sie den Standardfehler in den letzten Ziffern ausdrücken, können Sie auch 51,3 (3,0) (letztes Beispiel) oder 5,124 (0,013) (erstes Beispiel) verwenden. Sie fügen die Ziffer also explizit hinzu.

Ich würde empfehlen, bei der ersten Verwendung der Notation genau zu erklären, was gemeint ist. Auch, weil Sie vielleicht erklären möchten, was genau im Standardfehler enthalten ist und wie er berechnet wird.

Das Dokument Richtlinien zur Bewertung und Angabe der Unsicherheit von NIST-Messergebnissen und insbesondere Leitfaden zur Angabe der Messunsicherheit gelten als Standarddokumente. Sie diskutieren beide Notationen.