Messunsicherheit des berechneten Schwerpunkts aus Pixelbild

Die Bestimmung der Position von Himmelskörpern (Sternen und anderen Objekten) basiert auf bildgebender Technologie. Je nach Auflösung des verwendeten bildgebenden Sensors wird ein Objekt durch eine Gruppe benachbarter (heller) Pixel identifiziert. Diese Pixel umgeben den Schwerpunkt des detektierten Himmelskörpers.

In der Bildverarbeitung wird die zentrale Position eines runden Objekts (einer Kugel) im Allgemeinen durch Berechnung des Schwerpunkts der Pixel bestimmt, die das erfasste Objekt umgeben. Die Gewichte sind die Intensitäten der Pixel in der Nähe des hellsten (zentralen) Pixels.

Meine Frage: Wie wird die Varianz dieser Schwerpunktschätzung innerhalb der Astronomie berechnet?

Antworten (4)

Jeder Pixelwert S ich auf dem Detektor bei x ich hat irgendeinen Fehler N ich : CCDs haben zB ein Grundrauschen N bkg von Ausleseelektronik, thermischem Rauschen und Himmelshintergrund sowie einem Poissonschen Photonenrauschen N S = S . In vielen Fällen folgt dieses Rauschen ziemlich gut einer Gaußschen Verteilung. Nach Abzug des Untergrundes erfolgt eine Positionsmessung

x = S ich x ich S ich

hat die Ungewissheit

Standard x = [ ich ( x S ich N ich ) 2 ] 1 / 2 = [ ich ( j ( x ich x j ) S j k S k N ich ) 2 ] 1 / 2 k S k

N ich 2 = N bkg 2 + N S ich 2

Gaußsche Fehlerausbreitung verwenden ... Ich hoffe, ich habe die Mathematik richtig ausgeführt. Die Art, wie ich es geschrieben habe, ist etwas seltsam, zeigt aber eine wichtige Eigenschaft dieser Methode: Schaut man sich die Summe an j , können Sie sehen, wie das Rauschen eines Pixels im Wesentlichen durch den Abstand des Pixels zum Schwerpunktergebnis gewichtet wird. Derselbe Fehler bei einem Pixelwert wirkt sich stärker aus, wenn das Pixel weiter vom Schwerpunkt entfernt ist.

Bessere Methoden berücksichtigen die Unsicherheit N ich auf Pixelwerte in der ersten Gleichung bereits. Sie können dies tun, indem Sie zusätzliche Gewichte in Ihren Schwerpunkt einführen oder Modelle anpassen, was, soweit ich gesehen habe, die „übliche“ Methode in der Astrometrie ist.

Dieser kompliziertere Ansatz zum Messen von Positionen verwendet die Point-Spread-Funktion P ( x ich x obj ) des Instruments unter gegebenen Beobachtungsbedingungen. Das Modell kann eine Annäherung sein, z. B. eine Moffat-Funktion, oder ein empirisches Modell, das aus unverfälschten hellen Sternen im Bild aufgebaut ist, z. B. eine Spline-Interpolation. Für Punktquellen erzeugt die typische Anpassung der Position und des Flusses des Modells nach der Methode der kleinsten Quadrate an ein Bild leicht Ergebnisse, die hinsichtlich der Unsicherheit nahe am statistischen Optimum der Parameterschätzung liegen. Mit unserer modernen Rechenleistung ist der einfachste Weg, die Unsicherheit für ein gegebenes Modell und das Datenrauschen zu ermitteln, oft ein Bootstrapping-Algorithmus .

Natürlich erfordern erweiterte Objekte etwas mehr Arbeit im Modell, zum Beispiel Annahmen zu ihrer Form, wie Sie in Ihrer Frage angegeben haben.

Eine zugrunde liegende Annahme Ihrer Ableitung, std x, ist, dass der wahre Schwerpunkt (gemessen anhand der Pixelintensität) innerhalb des (Teil-)Bildes zentriert ist, über das x_i summiert wird. Sie wissen a priori nicht, dass der hellste Pixel der wahre Mittelpunkt ist, weshalb der Schwerpunkt in erster Linie aus Pixelintensitäten berechnet wird.
Wenn der Pixelbereich, über den Sie summieren, verbunden und konvex ist (z. B. ein Quadrat), ist das Ergebnis für x liegt immer in diesem Bereich, denn die erste Gleichung ist nicht nur unsere (irgendwie willkürliche) Positionsdefinition, sondern auch die Bedingung für x in der konvexen Hülle der Region zu sein , solange S ich 0 .
Also, ja, bei der linearen Näherung der Gaußschen Fehlerfortpflanzung gibt es die Annahme, dass das Ergebnis ziemlich nahe am wahren Wert liegt. Der wahre Wert ist aber das Idealergebnis ohne Rauschen und damit immer noch im Rahmen. Wenn die Position des Objekts außerhalb der Region liegt, ist dieser Algorithmus einfach die falsche Wahl. In diesem Fall ist die Schätzung für Standard x ist sicherlich falsch bzgl. die beabsichtigte wahre Position, aber immer noch richtig bzgl. das ideale Ergebnis des Algorithmus. (Hinweis: Das hellste Pixel wird nirgendwo besonders behandelt.)

Sie können sich diese Arbeit von Thomas et al. aus dem Jahr 2006 ansehen . über Schwerpunktalgorithmen für astronomische Systeme mit adaptiver Optik (AO), die eine detaillierte Diskussion von Fehlerschätzungen für die Schwerpunktposition unter Verwendung verschiedener Algorithmen beinhalten. Der Ansatz, den Sie in Ihrer Antwort beschreiben, entspricht dem, was sie "einfachen Schwerpunkt" nennen (Abschnitt 3); Sie verweisen auf ein Buchkapitel von Rousset (1999) für die detaillierte Analyse (die meines Erachtens Poisson- und Ausleserauschbeiträge enthält und daher nicht mit Ihrem Ergebnis identisch ist).

Allgemeiner gesagt scheint der "Center-of-Gravity"-Ansatz in Situationen verwendet zu werden, in denen schnelle, rechengünstige Schätzungen benötigt werden, wie z. B. in AO-Systemen (wo ein Sternschwerpunkt viele Male pro Sekunde bestimmt werden muss) oder als grobe erste Vermutung, um einen Ausgangspunkt für eine differenziertere Analyse bereitzustellen. Die Analyse astronomischer Bilder nach der Beobachtung verwendet im Allgemeinen komplexere/ausgefeiltere Ansätze, je nachdem, ob die Quelle ein Stern oder andere Punktquellen oder eine ausgedehnte Quelle ist, ob Sie ein genaues Modell der Punktstreuungsfunktion haben (die möglicherweise nicht kreisförmig ist ), Deblending benachbarter Quellen, was die Rauscheigenschaften Ihrer Daten sind usw.

In der Praxis würde ich vermuten, dass die meisten dieser Analysen eine Art nichtlineare Kleinste-Quadrate- oder Maximum-Likelihood-Analyse verwenden, bei der ein Modell an die Daten angepasst wird. Die Fehler in den angepassten Modellparametern (einschließlich der Schwerpunktposition) können aus vereinfachenden Annahmen über die angepasste Landschaft abgeleitet werden (z. B. Levenberg-Marquardt und andere Gradienten-basierte Minimierungsalgorithmen stellen manchmal Kovarianzmatrizen basierend auf der Behandlung des Lokalen bereit χ 2 Landschaft als Parabel), aus Bootstrap-Resampling oder aus Markov-Ketten-Monte-Carlo-Ansätzen. Dies kann durch laufende Simulationen des Anpassungsprozesses an künstlichen Bildern einfacher Modelle von Sternen oder Galaxien ergänzt werden, um einige quasi-empirische Schätzungen oder Korrekturen für die Unsicherheiten des Schwerpunkts (und anderer Parameter) zu erhalten.

Keine Ahnung von "... allgemein bestimmt ...", aber in einer ähnlichen Arbeit, die ich durchgeführt (und miterlebt) habe, wird eine zweidimensionale Spline-Anpassung an den Pixelintensitätsdaten durchgeführt, um den Leistungsschwerpunkt für die Subpixelauflösung zu bestimmen. Wie Sie bemerkt haben, machen wir die vernünftige Annahme, dass das Objekt nahezu kugelförmig ist und nahezu eine azimutale konstante Dichte aufweist (dh die Dichte kann mit dem Radius, aber nicht mit dem Winkel variieren).

Die Unsicherheit (Varianz) in dieser Berechnung wird normalerweise berechnet, indem standardmäßige statistische Verfahren auf die beobachteten Varianzen im empfangenen Signal in jedem Pixel angewendet werden, nachdem Jitter in der Position der Sichtlinie berücksichtigt wurde. (und natürlich unter Berücksichtigung von Elektronikrauschen usw.). Im Wesentlichen kann man die Varianz in der Spline-berechneten Spitze über N Frames betrachten oder die Varianz in allen Pixeln betrachten, ihren Beitrag zur Spline-Anpassung bestimmen und ihre Beiträge entsprechend gewichten.

Dieses interessante Problem ist eindeutig auch in der Astronomie relevant. Innerhalb der medizinischen Bildgebung kommt die Bestimmung des Mittelpunkts eines Objekts auch in einigen speziellen Anwendungsgebieten zum Tragen.

Ich habe die Frage hier gestellt, um mich darüber zu informieren, welche Formeln in der Astronomie verwendet werden: Wie wird die Unsicherheit des 'COG' bei Vorhandensein von (additivem) Messrauschen geschätzt?

Im Jahr 2002 haben wir eine allgemeine Formel für die Varianz des geschätzten Schwerpunkts bei Vorhandensein von normalverteiltem additivem Rauschen abgeleitet, das jedem Pixelwert zugeordnet ist. Die Referenz lautet wie folgt:

HC van Assen, M. Egmont-Petersen, JHC Reiber. "Genaue Objektlokalisierung in Graustufenbildern unter Verwendung des Schwerpunktmaßes: Genauigkeit versus Präzision", IEEE Transactions on Image Processing , Vol. 3, No. 11, Nr. 12, S. 1379-1384, 2002.

Ich gebe zunächst die allgemeine Formel an, die nur davon ausgeht, dass der Mittelpunkt des Fensters das Objekt umgibt ( 0 , 0 ) . Damit diese Formel gilt, muss das Objekt nicht zentral positioniert werden .

Definieren Sie das jedem Pixel zugeordnete additive Messrauschen als ϵ U ( 0 , σ 2 ) , mit σ seine Standardabweichung ist.

Definieren Sie ein quadratisches (Teil-)Bild W von Dimensionen ( d + 1 ) × ( d + 1 ) Pixel, mit Koordinaten, x = d 2 , d 2 + 1 , , d 2 , und j = d 2 , d 2 + 1 , , d 2 . Lassen w x , j sei die wahre Pixelintensität von Pixel ( x , j ) in Abwesenheit von Geräuschen, in W . Definieren Sie das Signal-plus-Rausch-Bild W als: w x , j = w x , j + ϵ . Definieren Sie die Gesamtzahl der Pixel im (Teil-)Bild als N = ( d + 1 ) 2 , die die zentrale 0-te Zeile und 0-te Spalte enthält W .

Die Werte von w x , j , mit ( w x , j 0 ), werden tatsächlich beobachtet. In der Nähe des Zentrums ( x = 0 , j = 0 ) ein helles Objekt von Interesse wurde geortet.

Der geschätzte Schwerpunkt c Ö g dieses Objekts wird wie folgt berechnet:

c Ö g ^ ( x , j ) = ( x , j x w x , j x , j w x , j , x , j j w x , j x , j w x , j )
wo x und j laufen Indizes so, dass jedes Pixel in W geht genau einmal in die Berechnung einer Summe (Sigma) ein. c Ö g ist die Messung, die durch Messrauschen beeinflusst wird.

Unter zweimaliger Anwendung der Delta-Regel haben wir eine allgemeine Näherungsformel für die Varianz des Cog bei bekanntem Geräuschpegel abgeleitet.

Definieren x 2 als:

x 2 = x j x 2
und ähnlich j 2 als:
j 2 = x j j 2
Schließlich ist das durchschnittliche „Gewicht“ (durchschnittliche Pixelintensität) gegeben durch:
μ ^ w = N 1 x j w x , j
Lassen c Ö g ^ ( x ) bezeichnet den geschätzten Schwerpunkt x -koordinieren und c Ö g ^ ( j ) der geschätzte Schwerpunkt j -Koordinate.

Die von MLE abgeleiteten Varianzschätzungen von c Ö g ^ ( x ) und c Ö g ^ ( j ) sind:

Var ( c Ö g ^ ( x ) ) = ( σ 2 x 2 [ N μ ^ w c Ö g ^ ( x ) ] 2 + σ 2 N ( μ ^ w ) 2 ) ( c Ö g ^ ( x ) ) 2
und
Var ( c Ö g ^ ( j ) ) = ( σ 2 j 2 [ N μ ^ w c Ö g ^ ( j ) ] 2 + σ 2 N ( μ ^ w ) 2 ) ( c Ö g ^ ( j ) ) 2
Es stellt sich heraus, dass, wenn das wahre Zahnrad genau ist ( 0 , 0 ) , dann gelten die (vereinfachten) Grenzformeln für die Cog-Varianz:
lim c Ö g ( x ) 0 lim c Ö g ( j ) 0 Var ( c Ö g ^ ( x ) ) = σ 2 x 2 ( N μ ^ w ) 2
und
lim c Ö g ( x ) 0 lim c Ö g ( j ) 0 Var ( c Ö g ^ ( j ) ) = σ 2 j 2 ( N μ ^ w ) 2
da der zweite (additive) Varianzterm innerhalb der äußeren Klammern dann verschwindet.

Meine letzten Simulationen zeigen das oben 95 % der tatsächlichen Abweichung ergibt sich aus unserer definierten Abweichungsformel, wie hier dargestellt. Dieses Simulationsergebnis gilt auch dann, wenn die Wahre cogum mehr als eine Koordinate von der Mittellage abweicht ( 0 , 0 ) .

Eine Simulationsgrafik, die die Genauigkeit der Varianzschätzung zeigt, wird dieser Antwort in den nächsten Tagen hinzugefügt.

Multiplikatives Rauschen

Poisson-Rauschen tritt in CCD-Kameras auf, sein Einfluss ist besonders bei graduellen Übergängen der Bildintensität von sehr dunklen zu sehr hellen Bereichen zu beobachten. Es ist bekannt, dass die Größe des Poisson-Rauschens proportional zur Signalintensität ist. In diesem Fall ist im beobachteten Bild multiplikatives Rauschen vorhanden:

w x , j = w x , j a ϵ
mit a eine Proportionalitätskonstante und ϵ der normalverteilte Rauschterm (der eine Poisson-Verteilung gut für moderat annähert w ich , j > 0 ).

Durchführen einer einfachen ln ( ) Transformation, l w ich , j = ln ( w ich , j ) ergibt ein transformiertes Bild l w durch additives Rauschen gestört . Anschließend kann der Cog-Varianz-Schätzer auf die angewendet werden l w -Bild.

Ihre Gleichungen scheinen davon auszugehen, dass die Standardabweichung σ des jedem Pixel zugeordneten Rauschens konstant ist, was nicht wahr sein wird; Wie Hannes in ihrer Antwort betont, ist eine bessere Beschreibung erster Ordnung die Gaußsche Annäherung an die Poisson-Statistik, wobei σ ist die Quadratwurzel der Intensität in einem gegebenen Pixel.