Könnten Spiegel durch CCDs ersetzt werden?

Warum verwenden Teleskope Spiegel, die Photonen einfach reflektieren , wenn sie stattdessen mit großen Sensoren bedeckt werden könnten, um sie zu registrieren ? Reflexion ist gut und schön, alles dank Silber und Beryllium dafür. Aber wäre es nicht besser, die Photonen direkt elektronisch zu registrieren, anstatt sie zwischen dummen Spiegeln herumspringen zu lassen? Würden bei einem reinen CCD-Teleskop ohne Spiegel oder Linsen irgendwelche Daten verloren gehen?

Könnte ein großer kabelgebundener CCD-Lichtsensor die erfassten Signale nicht intelligenter weitersenden, als es eine dumme, physikalisch reflektierende Oberfläche kann? Es sind die gleichen Photonen und das Teleskop selbst erzeugt keine neuen Informationen über die fernen Galaxien, die es reflektiert. Warum Spiegel für adaptive Optiken physikalisch biegen, anstatt die rohen Binärdaten mit einem Algorithmus für denselben Effekt zu biegen?

"Das Teleskop selbst erzeugt keine neuen Informationen über die entfernten Galaxien, die es reflektiert" - bedenken Sie, dass ein CCD selbst nur ein Solarpanel ist - es misst die Lichtintensität, aber nicht, woher das Licht kommt. Es braucht fokussiertes Licht, das ist wirklich grundlegende Optik. Lesen Sie die Antwort von DJohnM noch einmal, da ich denke, dass er den Nagel auf den Kopf getroffen hat.
Übrigens gibt es eine CCD, die die Richtung erkennt - eine plenoptische Kamera ( plenoptic.info/index.html ), aber beachten Sie, dass sie Mikrolinsen auf der CCD selbst verwendet, sodass Linsen immer noch beteiligt sind. (Plus eine ganze Menge anderer Sachen.)
Um es ganz schnell zusammenzufassen: Sie müssen das Licht fokussieren, um ein Bild zu machen, das der CCD sehen kann. CCDs sind wie unsere Netzhäute; Sie fangen nur Licht ein. Aber auch (tierische/menschliche) Augen haben eine Linse, die das Licht auf die Netzhaut fokussiert. Das ist die Rolle der Spiegel in Teleskopen.

Antworten (7)

Das CCD hat keine Möglichkeit, die Richtung , den Punkt am Himmel, aufzuzeichnen, aus dem ein Photon kommt.

Angenommen, Sie richten Ihr spiegelloses Teleskop auf den Mond. Jeder Punkt auf der Mondoberfläche würde gleichzeitig Photonen auf jeden Teil des CCD reflektieren .

Sie haben gerade einen teuren, empfindlichen Umgebungslichtmesser entwickelt. Es würden keinerlei Bildinformationen vorhanden sein.

Ich verstehe immer noch nicht, warum dummes Silizium im Glas als Mittelsmann besser für die Photonen ist als das intelligente Silizium in der Elektronik, in dem es schließlich landet, bevor wir es interpretieren können. Lassen Sie das CCD die gleiche Form haben wie ein Primärspiegel, wenn das hilft, und registrieren Sie die Photonen elektronisch, anstatt sie einfach abzuprallen.
Es hilft nichts ... Und das "dumme Silizium" ist intelligent genug, um unzählige Photonen von überall auf dem Objekt zu empfangen und jedes genau an die richtige Stelle auf dem Film oder CCD-Chip zu senden, um ein Bild zu erzeugen.
Die Photonen werden vom Himmelsobjekt gesendet. Warum sie erneut senden? Ist der Datenverlust durch Reflexion möglicherweise zu gering, um ein vorrangiges Problem darzustellen?
Die Photonen von verschiedenen Objekten über das Sichtfeld sind praktisch zufällig, bis die Wellenfronten von einem "Computer" gesammelt und sortiert werden, der alle Wellen neu ausrichtet und sie auf eine flache Ebene bringt - Optik. (und Reflexionsverluste sind heutzutage ziemlich gering.)

Um Ihre Frage zu beantworten, müssen wir zunächst die Arbeit jedes Spiegels zeigen.

Zuerst der Newton (liebevoll "Newt" genannt und von Sir Ike Newton erfunden):

https://en.m.wikipedia.org/wiki/Reflecting_telescope#/media/File%3ANewtonian_telescope2.svg

Zwei Spiegel in diesem Design, nicht überraschend als primär und sekundär gekennzeichnet.

Die Aufgabe des Hauptspiegels besteht NICHT nur darin, Licht zu reflektieren, sondern die diffusen Photonen auf einen viel kleineren Punkt zu konzentrieren. Dies macht wirklich schwache Objekte heller und ist der erste Schritt zur Vergrößerung. (Eine weitere Vergrößerung erfolgt durch das Okular, das einem kleinen Linsenteleskop ähnelt.)

Im Falle des Newt reflektiert der Sekundärspiegel die jetzt konzentrierten Photonen zu einem bequemeren Betrachtungspunkt. Ohne den Sekundärspiegel würde Ihr Kopf der Sicht im Weg stehen. Ein sekundärer Spiegel ist nicht erforderlich, und tatsächlich platzieren viele Teleskope Instrumente wie CCDs an diesem "primären Fokuspunkt".

Im Fall des Hubble-Weltraumteleskops reflektiert der Sekundärspiegel die konzentrierten Photonen zu den Instrumenten des Teleskops, wo sie ihre Wirkung entfalten können.

Bei allen Konstruktionen von Spiegelteleskopen nutzt der Primärspiegel die Gesetze der Physik, um dem Endbenutzer, sei es das menschliche Auge oder die Forschungsausrüstung, so viele konzentrierte Photonen wie möglich zu geben und so das zu maximieren, was wir sehen/erfassen können. Je größer der Hauptspiegel, desto konzentrierter sind die Photonen und desto mehr müssen wir verarbeiten.

Wenn es darum geht, das zu sehen, was wir „die schwachen Fuzzies“ nennen, ist größer IST besser!

Größer ist besser, aber könnte eine halbintelligente Elektronik die Photonen nicht besser entstreuen als eine dumme geometrisch reflektierende Oberfläche? Wie ist es besser, wenn ein Photon aus einer fernen Galaxie ein Siliziumatom in einem Spiegel trifft, bevor es auf einem Siliziumatom auf einem CCD oder einem ähnlichen lichtempfindlichen Gerät auftrifft und elektronisch aufgezeichnet wird? So wie alle Punkte auf einem Spiegel einen Fokus erzeugen können, nehme ich an, dass ein CCD-Array dies mit etwas Mathematik (nicht mein Job) auch tun könnte.
Astronomische Beobachtungen sind viel mehr als nur Photonen aufzuzeichnen. Betrachten Sie zum Beispiel Prismen, Grisms, Gitter und Filter. Ein CCD nimmt nur Photonen auf, ohne die Wellenlänge zu notieren.
@Donald.McLean Warum nicht alle Photonen direkt einfangen, warum mit ihnen Tischtennis spielen?
Aus dem gleichen Grund starten Flugzeuge mit Gegenwind; um der Technologie einen kostenlosen Schub von Mutter Natur zu geben. Außerdem ist unsere CCD-Technologie eher wie eine Piper Cub, die alle Hilfe gebrauchen kann, die sie bekommen kann, als wie ein Düsenjäger. Oft ist das, woran wir arbeiten, bereits am Rande dessen, was wir erkennen können; CCDs allein sind ohne die optische Unterstützung nicht in der Lage, das zu tun, was Sie vorschlagen.
@SkyGuide Wie kommt es, dass Glas weiß, woher ein Photon kommt, wenn kein CCD oder elektronischer Sensor, den wir herstellen, dies kann?
Die Mathematik und Physik, wie und warum Spiegel und Linsen funktionieren, ist eigentlich ziemlich fortgeschrittenes Zeug - VIEL schwerer zu erklären als zu benutzen. Auf der anderen Seite müssen Astronomen in den Radiobändern all die Berechnungen anstellen, die die Linsen und Spiegel ziemlich kostenlos machen. Das Universum ist ein seltsamer Ort.
(A but late but...) Alle Teile der gekrümmten Spiegel reflektieren einfallende Photonen von allen Teilen des abgebildeten Objekts (sowie von nicht abgebildeten Objekten). Photonen, die im falschen Winkel auf den Spiegel treffen, werden immer noch reflektiert, treffen aber nicht auf den CCD-Detektor. Nur Photonen, die in einem begrenzten Winkelbereich auf den Spiegel treffen, werden reflektiert, um auf den Sensor zu treffen. Diese reflektierten Photonen treffen auch auf unterschiedliche Stellen auf dem CCD, je nachdem, in welchem ​​Winkel sie auf den Spiegel treffen; Dadurch kann ein Bild aufgenommen werden. Spiegel wirken somit als Filter, Winkelmesser (Imager) und Verstärker (siehe Antwort).
@SkyGuide: Nicht die beste Analogie, wenn man bedenkt, dass es einem Düsenjäger tatsächlich viel schwerer fällt, in die Luft zu kommen als eine Piper Cub.

Da hier in keiner anderen Antwort das Wort "Phase" oder "Interferenz" erwähnt wird, werde ich es aus dieser Richtung angehen.

In dieser Antwort sagte ich

In einem abbildenden optischen Teleskop (oder einem beliebigen Abbildungssystem einschließlich Augen) wird jedes Pixel gleichzeitig und direkt von allen Bereichen der Apertur beleuchtet. Ab einem bestimmten Punkt in der Entfernung wird ein Teleskop (versuchen) die Phase aller Pfade zu erhalten, die das Pixel erreichen, so dass die resultierende Intensität der einfallenden Leistung entspricht. Dadurch erhält das System die beste Auflösung.

Das bedeutet, dass die gekrümmten Spiegel eines Spiegelteleskops so konstruiert sind, dass alle Pfade von einem entfernten Objekt in einer bestimmten Richtung ein Pixel in Phase erreichen . Die Pfade von jedem anderen Punkt am Himmel erreichen das Pixel völlig phasenverschoben und heben sich auf Null auf. Deshalb entspricht jedes Pixel einer bestimmten Richtung.

Ohne diese gekrümmten Spiegel können Sie kein Bild erstellen, da die Pixel der CCD die Welleninformationen nur in Intensität umwandeln und alle Phaseninformationen verlieren. Ohne Phaseninformationen gibt es keine Möglichkeit, die Signale in jedem Pixel zu kombinieren, um die einfallende Welle zu rekonstruieren.

Radioteleskop-Arrays können zwar wie Ihre Pixel sein, aber diese Signale werden in einen Bitstrom digitalisiert, der Phaseninformationen beibehält. Der Korrelatorcomputer nimmt all diese Phasen und rekonstruiert das Bild. Wenn jede Schüssel im Array mit einem Bolometer anstelle eines HF-Verstärkers und eines Basisbandwandlers ausgestattet wäre, würden Phaseninformationen verloren gehen, und egal wie groß Ihre Basislinie wäre, Sie hätten keine Interferenz.

Obwohl Phase und Interferenz für viele Dinge eine Rolle spielen, denke ich, dass diese Antwort falsch ist, wenn es darum geht, einen Spiegel oder eine Linse in einem Teleskop zu benötigen. Der Spiegel oder die Linse wird verwendet, um alle Photonen, die von einer einzelnen entfernten Quelle stammen, zu einem einzelnen Pixel auf dem Abbildungssensor zu leiten. Für die Bildgebung wird nicht die Phase des Photons benötigt, sondern die Richtung, in die es geht. Selbst wenn Sie einen Sensor hätten, der Phase und Frequenz jedes auftreffenden Photons messen könnte, hätten Sie immer noch keine Ahnung, aus welcher Richtung dieses einzelne Photon stammt.
Wenn Sie einen Sensor hätten, der logischerweise für jedes einfallende Photon ein Doppelspaltexperiment durchführte und das von diesem einzelnen Photon verursachte Interferenzmuster messen könnte, wäre es möglicherweise möglich, die Richtung zu messen, aus der das Photon kommt. Ich glaube jedoch nicht, dass es eine praktische Möglichkeit gibt, das Interferenzmuster eines einzelnen Photons zu messen, geschweige denn, dies für viele genug Pixel zu tun, um tatsächlich ein Teleskop aus solchen Sensoren zu bauen.
@MikkoRantalainen Interessant! Das klingt ein bisschen nach einem Shack-Hartmann-Wellenfrontsensor (siehe z. B. auch Thorlabs )
Ja, der Shack-Hartmann-Wellenfrontsensor könnte das tun, aber die aktuelle Implementierung würde etwa 99% des gesamten einfallenden Lichts an die Maske verlieren, was für astronomische Zwecke, bei denen die Photonenzahl zu Beginn langsam ist, nicht gut ist. Und wenn Sie keine Maske verwenden, haben Sie gerade Ihren großen Spiegel durch Millionen und Abermillionen winziger Linsen ersetzt.

Wenn Sie gerade ein CCD in einem Raum aufstellen, nimmt jedes Pixel Photonen aus allen Richtungen auf. Damit können Sie die Menge des Umgebungslichts erfassen, erhalten jedoch kein Bild des Raums.

Wenn Sie nun ein Bild haben möchten, müssen für jedes Pixel alle Photonen aus derselben Richtung kommen. Und für jede Richtung müssen alle Photonen, die aus dieser Richtung kommen, auf dasselbe Pixel fallen. Dazu können Sie eine Camera Obscura verwenden .

Wenn Sie jedoch nur die Photonen verwenden, die für jedes Pixel aus einer Richtung kommen, sammeln Sie nicht viel Licht, sodass Ihr Bild ziemlich dunkel ist. Das ist in Ordnung, wenn Sie eine sonnige Landschaft fotografieren, aber wenn Sie Sterne fotografieren möchten, müssen Sie alles Licht sammeln, das Sie bekommen können.

Hier kommt das Teleskop ins Spiel! Ein Teleskop sammelt alle Photonen aus allen Richtungen und reflektiert sie so, dass alle Photonen, die aus einer bestimmten Richtung kommen, auf demselben Pixel landen. Auf diese Weise können Sie ein Bild haben, das weder verschwommen noch dunkel ist.

+1Diese Demonstration ist zu 99,44 % richtig (verzeihen Sie den schrägen Hinweis). Es gibt die gesamte Kamera, die um Ecken sehen kann , und codierte Maskentechnologien , die keine Abbildungsoptik erfordern, aber dies geht wahrscheinlich über den Rahmen der aktuellen Frage hinaus.

Ich habe tatsächlich vor einiger Zeit ein Konzept für ein einfach zu skalierendes 2D-Teleskop gefunden ( hier ist der Link ). Ich schätze, wir werden Refraktorteleskope langsam aufgeben, denn soweit ich weiß, bringen wir sie derzeit an ihre Grenzen und es wird wirklich schwierig, ein größeres zu bauen (weil es schwierig ist, einen ausreichend großen Spiegel des zu machen benötigte Qualität). ABER es ist erwähnenswert, dass ich in keiner Weise ein Experte bin, also schlage ich vor, dass jemand, der mehr über das Thema weiß, diese Antwort bearbeitet.

EDIT: Es gibt einen wirklich guten Punkt in der Antwort von DJohnM, also dachte ich, ich werde hinzufügen, dass das, was ich hier verlinkt habe (SPIDER), nicht nur ein großes 2D-Array von CCDs ist; Es hat tatsächlich eine winzige Linse über jedem der Detektoren und jeder dieser misst Licht in einem Bündel unterschiedlicher Wellenlängen, sodass Informationen über Richtung und Wellenlänge des Lichts gespeichert werden können. Die Antwort auf die anfängliche Frage lautet also nein, wir können nicht einfach ein CCD-Array anstelle eines Teleskops in voller Größe bauen, aber die Idee, Teleskope in zwei statt in drei Dimensionen skalierbar zu machen, scheint gut zu sein, und es gibt Leute, die daran arbeiten es.

Ein elektromagnetisches Signal von einem entfernten Objekt, das an Ihrem Teleskop (oder Ihrem Auge) ankommt, ist eine Fourier-Transformation des Bildes dieses Objekts. Nicht das Bild selbst [ref. Beugung im Fernfeld in jedem Buch über Optik]. Die Optik im Teleskop (oder die Linse in Ihrem Auge) führt die inverse Fourier-Transformation durch, damit Sie das Bild erneut erhalten können. Nach diesem Schritt werden CCDs platziert.

Ja. Sie können Detektoren einsetzen, um die Fourier-Transformation aufzuzeichnen und sie später auf einem Computer umzukehren. Dazu müssen Sie die Amplitude und die Phase des Signals aufzeichnen. So funktioniert die Interferometrie über große Entfernungen, auch bekannt als VLBI, Event Horizon Telescope und andere. Aber sie verwenden spezielle Detektoren, keine gewöhnlichen CCDs.

Was Sie vorschlagen, könnte funktionieren. Sie benötigen jedoch weiterhin Linsen. Was Sie tun könnten, ist, die CCD-Matrix mit einer Maske abzudecken, die winzige kleine Löcher darin hat. Grundsätzlich würde dies ermöglichen, dass die CCD-Elemente durch den "Nadellocheffekt" beeinflusst werden, wodurch eine Linse erleichtert wird.

Das Problem dabei ist, dass Sie etwas Licht verlieren würden, wenn die Photonen auf die nicht durchlässigen Bereiche der Lochmaske treffen. Und schließlich wäre der größte Nachteil der Auflösungsverlust für die Größe des CCD-Arrays im Vergleich zu einem linsenbasierten analogen System.

Wenn wir supraleitende CCD-Arrays herstellen könnten, wäre dies viel effizienter als alles, was wir jetzt der Öffentlichkeit zur Verfügung stellen. Vor allem wenn es um die Lichtsammlung geht, jedoch immer noch nicht 100% perfekt, wenn man die Auflösungsbeschränkungen berücksichtigt.

Der Tag, an dem wir CCD-Elemente millionenfach kleiner machen können als das, was wir jetzt haben. Dann wird Ihre Idee wahrscheinlich einigermaßen funktionieren. Ich bin mir jedoch sicher, dass die Designer solcher Zukunftstechnologien bereits vor Ihnen daran gedacht haben.

Ich denke, dass wir bis dahin eine weitaus überlegenere Technologie haben werden. Wie zum Beispiel die Schaffung eines Energiefeldes unter Verwendung des Bose-Einstein-Kondensat-Effekts, der Photonen in einem Feld suspendieren kann. Dies würde es uns ermöglichen, einfallende Photonen, die in einer Matrix schweben, zu analysieren, und wir scannen das Bild mit der Auflösung eines Photons.

Die NASA hat die Bose-Einstein-Kondensat-Theorie bereits bewiesen, also wird es nicht mehr lange dauern. Mit dieser Art von Auflösung könnten wir vielleicht etwas so Kleines wie eine Fliege beobachten, die sich auf der Marsoberfläche in Hi-Definition reinigt. Der Bose-Einstein-Kondensat-Effekt bewirkt im Grunde, dass sich Quantenmaterie so verhält, als wäre sie Photonen/Wellen, während sich das Universum relativ wie ein Supraleiter verhält.

Mit anderen Worten, da sich Elektronen superschnell durch einen Supraleiter bewegen können, steht die vom Bose-Einstein-Effekt betroffene Materie relativ zum Universum fast still, während sich das Universum relativ superschnell um solche Quantenmaterie bewegt, die vom Bose-Einstein-Kondensatfeld beeinflusst wird .

Hallo und willkommen auf dieser Seite! Wir neigen dazu, Behauptungen aus Quellen gegenüber Meinungen vorzuziehen. Vielleicht könntest du einige deiner Aussagen mit einer Quelle belegen?
Die maximale Menge an Informationen, die Sie von einer imaginären Fliege von der Marsoberfläche erhalten könnten, wäre durch die Gesamtmenge der von dieser Fliege abgestrahlten Photonen begrenzt. Da die Anzahl aller Photonen, die jemals von dieser Fliege ausgestrahlt wurden, endlich ist und der kleine Detektor auf der Erdoberfläche ein winzig kleiner Bruchteil aller möglichen Richtungen ist, in die diese Photonen gehen könnten, gibt es selbst dann eine sehr begrenzte Photonenzahl auf dem Sensor es detektierte jedes Photon, das jemals von dieser Fliege emittiert wurde. Als solches würden Sie aufgrund fehlender Daten kein hochauflösendes Bild erhalten.