Strenge Theorie der Fehleranalyse

Jetzt, wo ich meine Vordiplomkurse abgeschlossen habe, habe ich viel über die Fehlertheorie nachgedacht, die wir für unsere Messungen verwendet haben. Ich habe versucht, ein mathematisch strenges Buch über Fehleranalyse zu finden, aber es war sinnlos. Ich wollte fragen, ob jemand von euch Literatur zu diesem Thema kennt. Die Themen, nach denen ich suche, gehen in die Richtung von:

  1. Betrachten des Ergebnisses einer Messung als Wahrscheinlichkeitsmaß;
  2. Verallgemeinerung des Begriffs „bester Wert“ oder des Werts mit der höchsten Wahrscheinlichkeit auf Maße, denen keine Dichte (Radon-Nikodym-Derivat) zugeordnet ist, wie z. B. das Dirac-Maß;
  3. eine konkrete Definition der Unsicherheit, die bei einer Gaußschen Verteilung mit der Standardabweichung übereinstimmt, aber nicht so umständlich ist wie das 68%-Konfidenzintervall,
  4. eine Reihe von Messergebnissen gegeben μ 1 , , μ N und eine Funktion dieser Messungen F , wie Sie das Ergebnis der Messung finden F (Beachten Sie, dass die Lösung dieser Frage das Problem der Fehlerfortpflanzung verallgemeinert).

Wenn einer von euch eine kurze Erklärung zu einem dieser Themen geben kann, wäre dies ebenfalls sehr zu schätzen.

Abgesehen von etwas ohne Wahrscheinlichkeitsverteilung finden Sie die Antworten darauf in Standardstatistiken oder Büchern über zufällige Prozesse. Google sie
Ich suchte nach Büchern, die einen Schwerpunkt auf Physik legten. Trotzdem ist etwas Mathematikliteratur in Ordnung. Irgendwelche besonderen Vorschläge?
Ich kann Ihnen keinen anderen als Papoulis nennen, der zu theoretisch ist und auf zufälligen Prozessen basiert. Andere, die ich einfach googeln würde, wie zum Beispiel „Bücher zur statistischen Fehleranalyse für die Physik“, kommen ziemlich viele und Sie können sehen, was für Sie funktionieren könnte. Andere können Ihnen vielleicht ihre bevorzugte nennen.
JB Scarborough. Numerische mathematische Analyse

Antworten (1)

Ich musste in meiner aktuellen Forschung auf einige Bücher und Ressourcen verweisen, bei denen eine strenge Fehleranalyse erforderlich ist. Hier sind zwei, die ich oft verwendet habe:

Introduction to Statistics and Data Analysis for Physicists (Bohm and Zech, 2010) - diese Referenz ist vollständig online verfügbar (alle 412 Seiten!). Im Vorwort geben die Autoren im Vorwort an, dass die Referenz geschrieben ist

mit dem Fokus auf moderne Anwendungen in der Kern- und Teilchenphysik

Das Buch richtet sich angeblich an Master- und Doktoranden, zusammengestellt aus Vorlesungsunterlagen der Universität Siegen in Deutschland. Der Hinweis legt weniger Wert auf die mathematischen Grundlagen, sondern appelliert an die Intuition des Lesers. Beispiele und Formeln werden schrittweise mit ausführlicher Erläuterung abgeleitet.

Eine schnelle Suche (Steuerung-F) von „Dirac“ zeigt einige Beispiele zu diesem Thema.

Measurements and their Uncertainties (Haese and Hughes, 2010) - diese Referenz ist auch vollständig online verfügbar. Diese Referenz ist wesentlich allgemeiner als die erste Referenz (und mit 153 Seiten kürzer!).

Die Autoren stellen im Vorwort fest, dass das Buch aus der Umstrukturierung eines praktischen Physikkurses im ersten Jahr an der Durham University stammt, aber für alle Erfahrungsstufen in Physik zugänglich ist, wobei der Schwerpunkt darauf liegt, dass es im Labor und für wissenschaftliche Zwecke verwendet werden kann -Computing-Anwendungen (wo ich es verwendet habe) - insbesondere:

Der Zweck dieses Buches besteht darin, alle notwendigen Grundlagen für Laborsitzungen in einem Physiklabor im ersten und zweiten Studienjahr abzudecken und genügend Material zu enthalten, um für Projekte im Abschlussjahr, Doktoranden und praktizierende professionelle Wissenschaftler und Ingenieure nützlich zu sein.

Nur eine Anmerkung, dass Haese und Hughes der empfohlene Text für mein erstes Physikpraktikum war. Es ist sicherlich gründlich, aber ich bin mir nicht sicher, ob ich ein großer Fan der Präsentation bin. Aber wahrscheinlich muss man einfach mehr davon lesen!