Unsicherheiten der Blendenphotometrie

Angenommen, ich habe ein 2D-Datenarray mit einer Anzahl von Zählwerten in jedem Pixel (dh dies ist das Bildarray). Angenommen, ich habe ein weiteres 1-1-abgebildetes Datenarray gleicher Form, das die 1-Sigma-Gauß-Standardabweichung in der Anzahl der Zählwerte in jedem Pixel im Bild angibt (dh dies ist das Fehlerarray).

Wenn ich Photometrie mit kreisförmiger Apertur mache, berechne ich einfach -2,5 * log10 (summierte Zählungen innerhalb der Apertur) + MagnitudeNullpunkt.

Andererseits habe ich für die Größenunsicherheit meiner Aperturgröße gelesen, dass ich eine Quadratursumme der Fehler innerhalb meiner Apertur durchführen und dann die fraktionale Flussunsicherheit als das Verhältnis meiner quadratursummierten Unsicherheit geteilt durch berechnen soll Meine gemessenen Zählungen aus dem Bild und dann Größenfehler = 2,5 * log10 (1 + fraktionale Flussunsicherheit).

Wie kommt es, dass die Unsicherheiten quadratursummiert werden müssen ( Σ σ x , j 2 ), anstatt nur zu addieren, wie ich es mit den Bildpixelwerten mache? Die Quadratursumme führt zu einem kleineren Fehlerbalken, aber ist das realistisch? Außerdem betone ich, dass meine Datenarrays in Zähleinheiten (dh ADUs) sind, nicht in Elektronen.

Antworten (1)

Weil die Unsicherheiten in der Anzahl der in jedem Pixel erfassten Zählungen als unabhängig betrachtet werden. Das bedeutet, dass einige von ihnen höher sind als der „wahre Wert“ (die Zählrate, die Sie messen würden, wenn Sie unendlich lange beobachten würden), während andere niedriger sind. Bis zu einem gewissen Grad heben sich diese unabhängigen Unsicherheiten auf, und das Endergebnis ist, dass für normalverteilte Fehler das richtige Protokoll das ist, was Sie beschrieben haben.

Eine gute Möglichkeit, dies zu sehen, ist vielleicht die Annahme, dass Sie 100 unabhängige Messungen derselben Sache durchgeführt haben, jede mit ihrer eigenen, ungefähr gleichen Unsicherheit. Wenn ich fragen würde, wie hoch die Unsicherheit im Durchschnitt ist, würden Sie nicht einfach alle Fehler zusammenzählen und durch 100 teilen, denn das würde eine Unsicherheit ergeben, die identisch mit der einer Einzelmessung ist. Stattdessen würden Sie die Quadratursumme der Unsicherheiten berechnen und durch 100 dividieren, wodurch die Unsicherheit im Durchschnitt um einen Faktor von reduziert wird 100 .

Ich verstehe und stimme Ihrer Antwort für statistische Berechnungen (z. B. S/N-Verhältnis) zu. Aber wie sieht es bei systematischen Offsets/Bias aus? Angenommen, ich messe 100 Zählungen in meiner Blende und finde dann den Hintergrund-Rest-RMS-Pegel in der Nähe meiner Blende und multipliziere diesen mit der Anzahl der Pixel in meiner Blende, um eine erwartete Gesamtzahl von Zählungen allein aufgrund von Hintergrundschwankungen zu erhalten. Wenn mir diese Berechnung ~90 Zählungen liefert, bedeutet das, dass im schlimmsten Fall 90/100~90% der wissenschaftlichen Öffnungszählungen von Hintergrundschwankungen stammen könnten? Wie verwandle ich das in eine systematische Fehlerleiste?
@quantumflash Sie gehen damit auf ähnliche Weise mit Fehlerfortpflanzungsformeln um. Die Anzahl der Hintergrundzählungen in der Blende (unter der Annahme, dass der Hintergrund vorhergesagt wurde als b ± δ b ) ist b ± ( ( δ b ) 2 + b ) 0,5 .
Danke vielmals! Warum fügst du b im sqrt hinzu? Außerdem bezieht sich Ihre Berechnung auf Hintergrundzählungen in einer Blende, während ich mit einem Bild mit subtrahiertem Hintergrund arbeite, aber eine RMS-Karte für Residuen der Hintergrundsubtraktion abgeleitet habe? Grundsätzlich liegt der Gesamtmedian des Hintergrundpegels nahe bei 0, es kann jedoch aufgrund der Subtraktionsreste zu Schwankungen kommen. Kann ich ein Array von zufälligen Gaußschen Werten mit dem oben angegebenen Mittelwert von ~0 und Sigma = Median RMS erstellen? Das Array hätte die gleiche Größe wie die Anzahl der Pixel in meiner Blende. Dann kann ich Quadratursumme machen und -2,5 * log10 (Summe) + magzp machen?