Immer wenn ich eine positive Größe (z. B. ein Volumen) messe, gibt es eine gewisse Unsicherheit in Bezug auf die Messung. Die Unsicherheit ist normalerweise ziemlich gering, z. B. weniger als 10 %, abhängig von der Ausrüstung. Ich habe jedoch kürzlich Unsicherheiten (aufgrund von Extrapolation) gesehen, die größer als die Messungen sind, was kontraintuitiv erscheint, da die Menge positiv ist.
Also meine Fragen sind:
(Das Wort "Messung" ist in diesem Zusammenhang möglicherweise schlecht gewählt, wenn wir die Extrapolation einbeziehen.)
Unsicherheiten, die größer als die gemessenen Werte sind, sind üblich. Besonders bei Messungen, bei denen der Wert (nahezu) Null erwartet wird. Zum Beispiel Werte für die Neutrinomasse.
Die Partikeldatengruppe listet diese als kleiner als irgendein Wert mit einer Vertrauensgrenze von 90 % auf. Aber ich habe Papiere gesehen, wo wurde als negative Zahl angegeben, wobei die geschätzten Fehler kleiner als der Wert waren.
Für Fälle, in denen der Wert auch negativ sein kann, sind symmetrische Standardabweichungen größer als der Wert überhaupt kein Problem. Wie der Unterschied zw -Werte des Elektrons und des Positrons oder das elektrische Dipolmoment des Elektrons.
In der Tat machen so große Unsicherheiten keinen Sinn.
In Wirklichkeit haben wir eine Wahrscheinlichkeitsverteilung für den Parameter, den wir beschreiben. Unsicherheit ist ein Versuch, diese Verteilung durch zwei Zahlen zu beschreiben, normalerweise den Mittelwert und die Standardabweichung.
Dies ist nur nützlich, wenn die Unsicherheiten klein sind, da Sie häufig viele ähnlich große Unsicherheiten miteinander kombinieren (z. B. durch Mittelwertbildung) und der zentrale Grenzwertsatz eingreift, wodurch Ihre endgültige Verteilung sehr nahe an eine Gaußsche Verteilung kommt. Der Mittelwert und die Standardabweichung dieser Gaußschen Funktion hängen nur von den Mittelwerten und Standardabweichungen der Stücke ab; alle anderen Informationen sind irrelevant.
Aber wenn Sie nur eine einzelne Größe mit einer sehr breiten Verteilung betrachten, ist es einfach nicht hilfreich, die Standardabweichung zu kennen. An diesem Punkt ist es wahrscheinlich besser, stattdessen ein Konfidenzintervall von 95 % anzugeben. Natürlich wäre der Boden dieses Intervalls für ein physisches Volumen niemals negativ.
Ohne die vollständigen Details des Experiments kann man nicht wirklich sagen, ob es „sinnvoll“ ist oder nicht. Aber in vielen Fällen sind die Daten immer noch nützlich und aussagekräftig.
Ein Beispiel ist, dass Sie einen Wert theoretisieren etwa 100 sein. Sie entwerfen also ein Experiment nach Maß um 100 10, mit der Ungewissheit, was Sie sich leisten können, was die aktuelle Technologie erlaubt, was der milliardenschwere Teilchenbeschleuniger leisten kann.
Wenn sich herausstellt, dass der wahre Wert von tatsächlich 1 ist, dann erhalten Sie wahrscheinlich ein experimentelles Ergebnis von . Das bedeutet nicht, dass ein Fehler aufgetreten ist oder die Messung ungültig ist, es ist einfach passiert.
Sind die Daten noch brauchbar? Ja! Sie haben jetzt gesprungen weniger als 11 sein. Sie sollten dies veröffentlichen, damit zukünftige Experimente den unteren Bereich messen können, anstatt sich umzusehen .
Sie haben auch gezeigt, dass es ein Problem mit der Theorie gibt und dass sie geändert werden muss, sodass sie einen Wert von weniger als 11 und nicht 100 ergibt. Dies könnte beispielsweise eine konkurrierende Theorie stützen oder andere dazu veranlassen, sich zu identifizieren Fehler oder Schwächen in der bestehenden Theorie.
Etwas, das eine Exponentialverteilung (so positiv) mit erwartetem Wert hat hat auch eine Standardabweichung - Es gibt andere Verteilungen auf positive Werte, bei denen die Standardabweichung ein Vielfaches des Erwartungswertes betragen kann
Durch eine vage Erinnerung an die Normalverteilung könnten Sie naiv denken, dass es ungefähr a geben könnte Chance, dass eine Beobachtung davon im Bereich wäre . Dies ist im Allgemeinen ein falscher Ansatz, aber in diesem speziellen Fall würden Sie sich als richtig erweisen; genauer gesagt ist dies die Wahrscheinlichkeit einer Beobachtung unten , welches ist
Der Fehler, falls vorhanden, besteht darin, zu denken, dass das Unsicherheitsintervall immer symmetrisch um den zentralen Wert sein sollte
Wenn Ihre extrapolierten Ergebnisse eine Unsicherheit von mehr als 100 % aufweisen, was möglich ist, bedeutet dies lediglich, dass Ihre Stichprobendaten nicht repräsentativ für die Grundgesamtheit waren oder dass Ihre Extrapolation falsch ist. Abhängig von Ihrem Experiment kann eine lineare Extrapolation zu erheblich falschen Ergebnissen führen.
Ich bin mir nicht sicher, was Sie mit "erzwingen" meinen, aber eine so hohe Unsicherheit sollte Ihnen sagen, dass etwas wahrscheinlich nicht stimmt. Es ist sinnvoll, einen Grenzwert für Ihre Unsicherheit zu wählen, wenn Sie das mit „durchsetzen“ meinen, aber Ihre erste Strategie sollte wahrscheinlich darin bestehen, sich anzusehen, wie Sie extrapolieren.
Eine Unsicherheit, die größer ist als der Wert für einen bekannten positiven Wert, ist im Zusammenhang mit einer nicht-Gaußschen Glaubwürdigkeit sinnvoll.
Wenn dieser erste Satz klar war, können Sie aufhören zu lesen. Wenn nicht, lass mich zurückkommen. Wenn wir von „Unsicherheit“ sprechen, gibt es keine scharfe Linie. Für jeden gegebenen Bereich können wir basierend auf unserem Wissen eine Wahrscheinlichkeit ausdrücken, dass der Wert innerhalb dieses Bereichs liegt. Diese Wahrscheinlichkeit ist das Integral über den Bereich unserer „Glaubwürdigkeit“ oder „Wahrscheinlichkeitsdichtefunktion“ (kurz „pdf“). Sie können sich diese Funktion als die Wahrscheinlichkeit vorstellen, die wir jedem möglichen Wert zuweisen, multipliziert mit unendlich, so dass ihr Integral eins ist (irgendwo zuckte ein Mathematiker zusammen).
Sehr oft ist unsere Glaubwürdigkeit gaußsch, in diesem Fall können wir sie mit zwei Parametern beschreiben: Mittelwert und Standardabweichung. Der Mittelwert ist auch der erwartete Wert und der Maximum-Likelihood-Wert, sodass er eine hervorragende Punktschätzung darstellt. Wir können die Standardabweichung dann „die Unsicherheit“ nennen.
Wenn die Glaubwürdigkeit nicht gaußsch ist, was hier der Fall zu sein scheint, müssen wir es etwas ausführlicher beschreiben.
David Weiß
Sean E. Lake
Thomas
Dmitri Grigorjew
David Weiß