Kann die Drizzle-Integration die Auflösung über die theoretische Auflösung des Teleskops hinaus erhöhen?

Ich habe mich also gefragt, ob die Nieselintegration tatsächlich Details in Ihrem Bild erhöht, wenn das Nieselbild zu einer höheren Auflösung in Bogensekunden / Pixel führt, als das Teleskop zulassen würde (aufgrund des Unschärfeprinzips hängt das Auflösungsvermögen des Teleskops von seinem Durchmesser ab mehr allgemein als Beugungsgrenze bezeichnet 1 , 2 )

In meinem Fall habe ich ungefähr 0,52 Zoll pro Pixel auf meiner Hauptkamera und mein GSO RC8 ermöglicht aufgrund des Unsicherheitsprinzips eine maximale Auflösung von ungefähr 0,5 Zoll. Das Nieseln eines Bildes würde mir dann 0,26 Zoll pro Pixel auf dem beträufelten Bild geben, wenn die Breite erhöht wird und Höhe des Bildes um den Faktor 2, was ein höheres Auflösungsvermögen ist als das, was das Teleskop tatsächlich leisten könnte.

Abgesehen von schärferen und definierteren Sternen bei der Nieselregen-Integration, wird die Nieselregen-Integration tatsächlich mein Auflösungsvermögen erhöhen?

Antworten (2)

Nieselregen kann eigentlich nicht besser sein als das theoretische Auflösungsvermögen der Kombination Ihres Teleskops und der Atmosphäre. Es kann zumindest teilweise Pixel kompensieren, die zu groß sind, um die Auflösung Ihres Teleskops + der Atmosphäre richtig abzutasten.

Das Nyquist-Sampling-Theoremsagt im Grunde, dass Sie mindestens 2 Pixel pro Auflösungselement haben sollten, um die Auflösung richtig abzutasten. Oder umgekehrt, wenn Sie eine Auflösung von X Bogensekunden erreichen möchten, möchten Sie Pixel, die nicht größer als X/2 Bogensekunden sind. Wenn also die theoretische Kombination Ihres Teleskopdurchmessers und der Atmosphäre eine Auflösung von 0,5 Bogensekunden hätte (wir sprechen also von wirklich guten atmosphärischen Bedingungen), möchten Sie Pixel, die 0,25 Bogensekunden oder kleiner sind; andernfalls überwältigt die Pixelisierung die intrinsische Auflösung. Beachten Sie jedoch, dass Sie nicht wirklich etwas gewinnen, wenn Sie zu noch kleineren Pixeln wechseln: Sie erhalten nur ein schönes verschwommenes Bild ohne sichtbare Pixelisierung. Pixel mit einer Größe von 0,1 Bogensekunden machen das Bild nicht schärfer als Pixel mit einer Größe von 0,2 Bogensekunden.

In Ihrem hypothetischen Fall sind Pixel mit 0,52 Bogensekunden gut genug für Auflösungen bis zu etwa 1 Bogensekunde. Ideales Nieseln würde es Ihnen ermöglichen, effektiv Pixel mit einer Größe von etwa 0,25 Bogensekunden zu haben, was einer Auflösung von etwa 0,5 Bogensekunden entsprechen würde. Aber Sie können es nie besser machen als die intrinsische Auflösung Ihres Teleskops + der Atmosphäre.

Ich sehe, das ist eine interessante Lektüre, danke für die Antwort :)
Was ich jedoch nicht wirklich verstehe, ist der Teil, in dem Sie sagen, dass eine Auflösung von 0,25 Bogensekunden eine Auflösung von 0,5 Bogensekunden auf dem Bild oder das von Ihnen verlinkte Nyquist-Sampling-Theorem ermöglichen würde.
Ich mache eine kleine Ausnahme von Ihren Aussagen zur atmosphärischen Grenze, da ein gutes AO-Kompensationssystem (adaptive Optik) einen Großteil der potenziellen Verschlechterung beseitigen kann.
Nun, die ursprüngliche Frage bezog sich auf ein 8-Zoll-Teleskop, also verkompliziert die Sorge um AO die Dinge in diesem Zusammenhang ein wenig ...
RononDex -- die Idee ist, dass Sie, wenn Sie in der Lage sein wollen, so kleine Details wie X zu unterscheiden (= eine "Auflösung" von X haben), die Daten mit halber Größe abtasten müssen ( z. B. Pixel haben, die X / 2 oder kleiner). Andernfalls haben Sie ein Bild, das von der Blockigkeit Ihrer Pixel dominiert wird.

Drizzling ist nur eine Technik im Bereich der hochauflösenden Bildgebung . Beachten Sie, dass Behauptungen, dass Sie die Auflösungsgrenze einer Kamera nicht überschreiten können, im Prinzip falsch sind. In der Praxis ist es wirklich schwierig. Was Ihre Fähigkeit einschränkt, ein Bild von dem zu erstellen, was die Kamera betrachtet, sind: die Menge an zufälligem Rauschen in den Pixeln und Ihr Verständnis der Point-Spread-Funktion (PSF) der Kamera.(obwohl einige Astronomen es vorziehen, den Begriff "Punktantwortfunktion" [PRF] zu verwenden, wenn Sie die Effekte sowohl der Optik als auch des Detektors einbeziehen). Wenn Sie genug Zeit und Geld investieren, um die PSF festzunageln und das Signal-Rausch-Verhältnis unbegrenzt zu erhöhen (Vorsicht vor Verzerrungen), ändert sich das abgebildete Objekt im Prinzip nicht, und Sie haben genug Genauigkeit bei der Messung, wie Sie Richten Sie die Kamera beim Dithering aus, dann können Sie die Auflösung des rekonstruierten Bildes im Prinzip beliebig weit verschieben.

In der Praxis ist es meist billiger und zeitsparender, einfach eine größere Kamera zu kaufen.

Betrachten Sie für ein konkretes mathematisches Beispiel, wie die Bildrekonstruktion funktioniert, die Summe zweier versetzter Gaußsche , mit σ = 1 , μ 1 = 0,1 , und μ 2 = + 0,1 . Hier ist ein Diagramm einer solchen Kurve, die mit einer einzelnen Gauß-Kurve mit derselben überzeichnet ist σ , skaliert, um die gleiche Höhe zu haben x = 0 . Sie können nur eine gezeichnete Linie sehen, obwohl ich Ihnen versichere, dass es zwei gibt.Darstellung der Summe von Gauß-Verläufen im Vergleich zu einzelnen nahen Gauß-Verläufen

Um den Unterschied zwischen ihnen zu sehen, müssen wir den Unterschied grafisch darstellen (Plotten der Residuen, im Datenanalyse-Jargon). Diese nächste Grafik ist die Differenz, in die um den Faktor 100 hineingezoomt j -Richtung.Geben Sie hier die Bildbeschreibung ein

Wie Sie sehen können, ist der theoretische Unterschied nicht Null. Wenn sich also das, was Sie abbilden, nicht ändert, Sie den Hintergrund genau genug modellieren können und Sie über ein ausreichend genaues Modell der PSF der Kamera verfügen, können Sie den Unterschied zwischen dem hohen Gaußschen und zwei leicht versetzten Gaußschen Szenarien erkennen, wenn Sie dies tun Investieren Sie im Prinzip genug Zeit und Energie in das Projekt, auch wenn Ihre Pixel die doppelte volle Breite bei halbem Maximum (FWHM) des Gaußschen haben. F W H M = 8 ln ( 2 ) σ für Gaussianer, also ist in diesem Diagramm die doppelte FWHM ungefähr 4.7 .

Eine Möglichkeit, das Ziel des Verständnisses der PSF zu fördern, besteht darin, sie absichtlich einfach zu modellieren (im Gegensatz zu "so klein wie möglich"), wie dies bei vielen Formen der nichtredundanten Aperturmaskenabbildung erfolgt . Ich glaube, der Kompromiss besteht darin, dass Sie sowohl das Sichtfeld als auch den (offensichtlichen) Verlust des Lichts verlieren, das blockiert wird.

In der Praxis ist es jedoch normalerweise besser, eine größere Kamera zu kaufen oder die Atmosphäre zu kompensieren (z. B. glückliche Bildgebung und adaptive Optik ), wenn Ihre Bildgebung eingeschränkt ist. Somit sind die durch das Nyquist-Abtasttheorem auferlegten Grenzen praktischer, nicht theoretischer Natur. Es neigt auch dazu, Sie in die Irre zu führen, wenn Sie sich nicht daran erinnern, dass Pixel keine Punkte sind, sondern kleine Eimer, die Licht sammeln, das in einen begrenzten Bereich fällt. Wenn man davon spricht, dass eine Funktion "abgetastet" wird, wird implizit der Mittelwertsatz verwendet, um zu sagen, dass die gesammelte Lichtmenge geteilt durch die Pixelfläche den Wert der Bildhelligkeit dort ergibt. Was oft fallen gelassen wird, ist der Vorbehalt, dass es ', nicht unbedingt in der Mitte des Pixels. Dies ist normalerweise ein sehr kleiner Effekt, weshalb er oft ignoriert wird, aber wenn Sie davon sprechen, an der Auflösungsgrenze zu arbeiten und Pixelgrößen zu haben, die mit dieser Auflösung vergleichbar sind, kann die Unterscheidung wichtig werden. Grob gesagt, wenn die PSF innerhalb des Pixels stark gekrümmt ist , kann der Versatz von der Pixelmitte des Mittelwerts signifikant werden.

Eine Möglichkeit, darüber nachzudenken, was Nieselregen für Sie bedeutet , besteht darin, dass Sie sich durch das Bewegen der Pixel zwischen den Bildern um die Lichteimer bewegen. Grundsätzlich können Sie mit genügend Bildern mit unterschiedlichen Offsets die Pixeldichte des Bildes wahrscheinlich an die Grenze Ihrer Fähigkeit bringen, die Größe der Offsets zu rekonstruieren (normalerweise die Ausrichtung der Kamera / des Teleskops, obwohl ich keinen Grund dafür kenne). Sensor konnte bei einigen Schrittmotoren, die an Mikrometern befestigt waren, nicht bewegt werden) oder die Schärfe der Trennungen zwischen den Pixeln (die Fähigkeit, Licht zu sammeln, ist weder gleichmäßig über ein Pixel, noch könnten die Pixel den Detektor von Kante zu Kante vollständig ausfüllen , dies sind meistens nur wirklich gute Annäherungen).

Wird die PSF nicht normalerweise anhand der Sterne im Bild gemessen? Es zeigt, wie gut ausgeprägte Sternspitzen sind, wie exzentrisch usw. Diese PSF würde offensichtlich bereits die vom Teleskop kommenden optischen Faktoren und eventuelle Fehler in der Führung während der Langzeitbelichtung beinhalten. Normalerweise wird diese PSF der Sterne in PixInsight mithilfe des DynamicPSF-Prozesses geschätzt und dann im Dekonvolutionsprozess verwendet, damit die Sterne auf Ihrem Bild konvergieren können, um kleiner / näher an Ihrer optimalen PSF zu werden
Auch danke für das Zeigen dieser Funktionen, ich hatte einige Datenanalysen während meines Teilzeitstudiums in Physik in Zürich, das hilft mir beim Verständnis :)
Außerdem beträufle ich meine Bilder normalerweise während der Aufnahme, das heißt, wenn eine 600er-Belichtung abgeschlossen ist, weist sie die Führungssoftware an, sich um xx Pixel zu bewegen und dann die nächsten 600er zu starten, und da dies normalerweise eine schwebende Zahl wie etwa 2,5 Pixel ist, verteilen Sie das Rauschen ziemlich gut über das gesamte Bild, was es später einfacher macht, mit der Nieselregen-Integration zu arbeiten
Ja, die PSF wird normalerweise mit Sternen unterschiedlicher Helligkeit gemessen und kann ihre Form über das Bild hinweg ändern. Schlimmer noch, die PSF ist technisch größer als das Bild (in der Radioastronomie gehen sie bis zu Nebenkeulen ), sodass Sie Probleme mit ausreichend hellen Objekten außerhalb des Bildes haben können.
das ist interessant, wusste das nicht über Radioastronomie! Ja, normalerweise wähle ich ungefähr 100 Sterne rund um das Bild aus, um Koma, flaches Feld usw. zu berücksichtigen, und mittele sie dann
@RononDex "Außerdem beträufle ich meine Bilder normalerweise während der Aufnahme ..." Drizzle ist der Name eines bestimmten Algorithmus zum Kombinieren mehrerer Bilder. Die allgemeine Technik, für die Drizzle ein Beispiel ist, wird "Co-Addition" genannt. Das WISE-Projekt verwendete beispielsweise ICORE . Was Sie hier beschreiben, ist kein Nieselregen, sondern ein Zittern. In der IR-Bildgebung ist es weiter verbreitet, Detektorfehler zu umgehen. Siehe zB noao.edu/kpno/manuals/flmn/FLMN-4m.pdf
ah ja da hab ich die begriffe verwechselt, danke für die erklärungen :) bin noch bachelorstudentin und lerne :)
Kein Problem. Freut mich, dass ich dir helfen konnte und hoffe, dass du mit deiner Begeisterung weitermachst! :)
Das ist eine wirklich schöne Antwort! Ein Kommentar: "... Sie können die Auflösung des rekonstruierten Bildes so weit erhöhen, wie Sie möchten." mag für manche Leser etwas irreführend sein. Die Dekonvolution hat Probleme, wenn sie auf realistische Daten angewendet wird.
@uhoh Ich denke, mit der neuen Bearbeitung habe ich genug Vorbehalte hinzugefügt, um die Schwierigkeiten zu zeigen, die native Auflösung der Kamera tatsächlich zu überschreiten. Außerdem ist Dekonvolution nur eine der verfügbaren Superauflösungstechniken.
Perfekt – „aus Prinzip“ sind die Zauberworte. Ich denke, das ist eine wirklich großartige Antwort; eine von denen, auf die in Zukunft als Referenz zurückverwiesen werden kann.