Angenommen, ich habe ein 2D-Datenarray mit einer Anzahl von Zählwerten in jedem Pixel (dh dies ist das Bildarray). Angenommen, ich habe ein weiteres 1-1-abgebildetes Datenarray gleicher Form, das die 1-Sigma-Gauß-Standardabweichung in der Anzahl der Zählwerte in jedem Pixel im Bild angibt (dh dies ist das Fehlerarray).
Wenn ich Photometrie mit kreisförmiger Apertur mache, berechne ich einfach -2,5 * log10 (summierte Zählungen innerhalb der Apertur) + MagnitudeNullpunkt.
Andererseits habe ich für die Größenunsicherheit meiner Aperturgröße gelesen, dass ich eine Quadratursumme der Fehler innerhalb meiner Apertur durchführen und dann die fraktionale Flussunsicherheit als das Verhältnis meiner quadratursummierten Unsicherheit geteilt durch berechnen soll Meine gemessenen Zählungen aus dem Bild und dann Größenfehler = 2,5 * log10 (1 + fraktionale Flussunsicherheit).
Wie kommt es, dass die Unsicherheiten quadratursummiert werden müssen ( ), anstatt nur zu addieren, wie ich es mit den Bildpixelwerten mache? Die Quadratursumme führt zu einem kleineren Fehlerbalken, aber ist das realistisch? Außerdem betone ich, dass meine Datenarrays in Zähleinheiten (dh ADUs) sind, nicht in Elektronen.
Weil die Unsicherheiten in der Anzahl der in jedem Pixel erfassten Zählungen als unabhängig betrachtet werden. Das bedeutet, dass einige von ihnen höher sind als der „wahre Wert“ (die Zählrate, die Sie messen würden, wenn Sie unendlich lange beobachten würden), während andere niedriger sind. Bis zu einem gewissen Grad heben sich diese unabhängigen Unsicherheiten auf, und das Endergebnis ist, dass für normalverteilte Fehler das richtige Protokoll das ist, was Sie beschrieben haben.
Eine gute Möglichkeit, dies zu sehen, ist vielleicht die Annahme, dass Sie 100 unabhängige Messungen derselben Sache durchgeführt haben, jede mit ihrer eigenen, ungefähr gleichen Unsicherheit. Wenn ich fragen würde, wie hoch die Unsicherheit im Durchschnitt ist, würden Sie nicht einfach alle Fehler zusammenzählen und durch 100 teilen, denn das würde eine Unsicherheit ergeben, die identisch mit der einer Einzelmessung ist. Stattdessen würden Sie die Quadratursumme der Unsicherheiten berechnen und durch 100 dividieren, wodurch die Unsicherheit im Durchschnitt um einen Faktor von reduziert wird .
Quantenblitz
ProfRob
Quantenblitz