Warum verwenden Teleskope Spiegel, die Photonen einfach reflektieren , wenn sie stattdessen mit großen Sensoren bedeckt werden könnten, um sie zu registrieren ? Reflexion ist gut und schön, alles dank Silber und Beryllium dafür. Aber wäre es nicht besser, die Photonen direkt elektronisch zu registrieren, anstatt sie zwischen dummen Spiegeln herumspringen zu lassen? Würden bei einem reinen CCD-Teleskop ohne Spiegel oder Linsen irgendwelche Daten verloren gehen?
Könnte ein großer kabelgebundener CCD-Lichtsensor die erfassten Signale nicht intelligenter weitersenden, als es eine dumme, physikalisch reflektierende Oberfläche kann? Es sind die gleichen Photonen und das Teleskop selbst erzeugt keine neuen Informationen über die fernen Galaxien, die es reflektiert. Warum Spiegel für adaptive Optiken physikalisch biegen, anstatt die rohen Binärdaten mit einem Algorithmus für denselben Effekt zu biegen?
Das CCD hat keine Möglichkeit, die Richtung , den Punkt am Himmel, aufzuzeichnen, aus dem ein Photon kommt.
Angenommen, Sie richten Ihr spiegelloses Teleskop auf den Mond. Jeder Punkt auf der Mondoberfläche würde gleichzeitig Photonen auf jeden Teil des CCD reflektieren .
Sie haben gerade einen teuren, empfindlichen Umgebungslichtmesser entwickelt. Es würden keinerlei Bildinformationen vorhanden sein.
Um Ihre Frage zu beantworten, müssen wir zunächst die Arbeit jedes Spiegels zeigen.
Zuerst der Newton (liebevoll "Newt" genannt und von Sir Ike Newton erfunden):
https://en.m.wikipedia.org/wiki/Reflecting_telescope#/media/File%3ANewtonian_telescope2.svg
Zwei Spiegel in diesem Design, nicht überraschend als primär und sekundär gekennzeichnet.
Die Aufgabe des Hauptspiegels besteht NICHT nur darin, Licht zu reflektieren, sondern die diffusen Photonen auf einen viel kleineren Punkt zu konzentrieren. Dies macht wirklich schwache Objekte heller und ist der erste Schritt zur Vergrößerung. (Eine weitere Vergrößerung erfolgt durch das Okular, das einem kleinen Linsenteleskop ähnelt.)
Im Falle des Newt reflektiert der Sekundärspiegel die jetzt konzentrierten Photonen zu einem bequemeren Betrachtungspunkt. Ohne den Sekundärspiegel würde Ihr Kopf der Sicht im Weg stehen. Ein sekundärer Spiegel ist nicht erforderlich, und tatsächlich platzieren viele Teleskope Instrumente wie CCDs an diesem "primären Fokuspunkt".
Im Fall des Hubble-Weltraumteleskops reflektiert der Sekundärspiegel die konzentrierten Photonen zu den Instrumenten des Teleskops, wo sie ihre Wirkung entfalten können.
Bei allen Konstruktionen von Spiegelteleskopen nutzt der Primärspiegel die Gesetze der Physik, um dem Endbenutzer, sei es das menschliche Auge oder die Forschungsausrüstung, so viele konzentrierte Photonen wie möglich zu geben und so das zu maximieren, was wir sehen/erfassen können. Je größer der Hauptspiegel, desto konzentrierter sind die Photonen und desto mehr müssen wir verarbeiten.
Wenn es darum geht, das zu sehen, was wir „die schwachen Fuzzies“ nennen, ist größer IST besser!
Da hier in keiner anderen Antwort das Wort "Phase" oder "Interferenz" erwähnt wird, werde ich es aus dieser Richtung angehen.
In dieser Antwort sagte ich
In einem abbildenden optischen Teleskop (oder einem beliebigen Abbildungssystem einschließlich Augen) wird jedes Pixel gleichzeitig und direkt von allen Bereichen der Apertur beleuchtet. Ab einem bestimmten Punkt in der Entfernung wird ein Teleskop (versuchen) die Phase aller Pfade zu erhalten, die das Pixel erreichen, so dass die resultierende Intensität der einfallenden Leistung entspricht. Dadurch erhält das System die beste Auflösung.
Das bedeutet, dass die gekrümmten Spiegel eines Spiegelteleskops so konstruiert sind, dass alle Pfade von einem entfernten Objekt in einer bestimmten Richtung ein Pixel in Phase erreichen . Die Pfade von jedem anderen Punkt am Himmel erreichen das Pixel völlig phasenverschoben und heben sich auf Null auf. Deshalb entspricht jedes Pixel einer bestimmten Richtung.
Ohne diese gekrümmten Spiegel können Sie kein Bild erstellen, da die Pixel der CCD die Welleninformationen nur in Intensität umwandeln und alle Phaseninformationen verlieren. Ohne Phaseninformationen gibt es keine Möglichkeit, die Signale in jedem Pixel zu kombinieren, um die einfallende Welle zu rekonstruieren.
Radioteleskop-Arrays können zwar wie Ihre Pixel sein, aber diese Signale werden in einen Bitstrom digitalisiert, der Phaseninformationen beibehält. Der Korrelatorcomputer nimmt all diese Phasen und rekonstruiert das Bild. Wenn jede Schüssel im Array mit einem Bolometer anstelle eines HF-Verstärkers und eines Basisbandwandlers ausgestattet wäre, würden Phaseninformationen verloren gehen, und egal wie groß Ihre Basislinie wäre, Sie hätten keine Interferenz.
Wenn Sie gerade ein CCD in einem Raum aufstellen, nimmt jedes Pixel Photonen aus allen Richtungen auf. Damit können Sie die Menge des Umgebungslichts erfassen, erhalten jedoch kein Bild des Raums.
Wenn Sie nun ein Bild haben möchten, müssen für jedes Pixel alle Photonen aus derselben Richtung kommen. Und für jede Richtung müssen alle Photonen, die aus dieser Richtung kommen, auf dasselbe Pixel fallen. Dazu können Sie eine Camera Obscura verwenden .
Wenn Sie jedoch nur die Photonen verwenden, die für jedes Pixel aus einer Richtung kommen, sammeln Sie nicht viel Licht, sodass Ihr Bild ziemlich dunkel ist. Das ist in Ordnung, wenn Sie eine sonnige Landschaft fotografieren, aber wenn Sie Sterne fotografieren möchten, müssen Sie alles Licht sammeln, das Sie bekommen können.
Hier kommt das Teleskop ins Spiel! Ein Teleskop sammelt alle Photonen aus allen Richtungen und reflektiert sie so, dass alle Photonen, die aus einer bestimmten Richtung kommen, auf demselben Pixel landen. Auf diese Weise können Sie ein Bild haben, das weder verschwommen noch dunkel ist.
+1
Diese Demonstration ist zu 99,44 % richtig (verzeihen Sie den schrägen Hinweis). Es gibt die gesamte Kamera, die um Ecken sehen kann , und codierte Maskentechnologien , die keine Abbildungsoptik erfordern, aber dies geht wahrscheinlich über den Rahmen der aktuellen Frage hinaus.Ich habe tatsächlich vor einiger Zeit ein Konzept für ein einfach zu skalierendes 2D-Teleskop gefunden ( hier ist der Link ). Ich schätze, wir werden Refraktorteleskope langsam aufgeben, denn soweit ich weiß, bringen wir sie derzeit an ihre Grenzen und es wird wirklich schwierig, ein größeres zu bauen (weil es schwierig ist, einen ausreichend großen Spiegel des zu machen benötigte Qualität). ABER es ist erwähnenswert, dass ich in keiner Weise ein Experte bin, also schlage ich vor, dass jemand, der mehr über das Thema weiß, diese Antwort bearbeitet.
EDIT: Es gibt einen wirklich guten Punkt in der Antwort von DJohnM, also dachte ich, ich werde hinzufügen, dass das, was ich hier verlinkt habe (SPIDER), nicht nur ein großes 2D-Array von CCDs ist; Es hat tatsächlich eine winzige Linse über jedem der Detektoren und jeder dieser misst Licht in einem Bündel unterschiedlicher Wellenlängen, sodass Informationen über Richtung und Wellenlänge des Lichts gespeichert werden können. Die Antwort auf die anfängliche Frage lautet also nein, wir können nicht einfach ein CCD-Array anstelle eines Teleskops in voller Größe bauen, aber die Idee, Teleskope in zwei statt in drei Dimensionen skalierbar zu machen, scheint gut zu sein, und es gibt Leute, die daran arbeiten es.
Ein elektromagnetisches Signal von einem entfernten Objekt, das an Ihrem Teleskop (oder Ihrem Auge) ankommt, ist eine Fourier-Transformation des Bildes dieses Objekts. Nicht das Bild selbst [ref. Beugung im Fernfeld in jedem Buch über Optik]. Die Optik im Teleskop (oder die Linse in Ihrem Auge) führt die inverse Fourier-Transformation durch, damit Sie das Bild erneut erhalten können. Nach diesem Schritt werden CCDs platziert.
Ja. Sie können Detektoren einsetzen, um die Fourier-Transformation aufzuzeichnen und sie später auf einem Computer umzukehren. Dazu müssen Sie die Amplitude und die Phase des Signals aufzeichnen. So funktioniert die Interferometrie über große Entfernungen, auch bekannt als VLBI, Event Horizon Telescope und andere. Aber sie verwenden spezielle Detektoren, keine gewöhnlichen CCDs.
Was Sie vorschlagen, könnte funktionieren. Sie benötigen jedoch weiterhin Linsen. Was Sie tun könnten, ist, die CCD-Matrix mit einer Maske abzudecken, die winzige kleine Löcher darin hat. Grundsätzlich würde dies ermöglichen, dass die CCD-Elemente durch den "Nadellocheffekt" beeinflusst werden, wodurch eine Linse erleichtert wird.
Das Problem dabei ist, dass Sie etwas Licht verlieren würden, wenn die Photonen auf die nicht durchlässigen Bereiche der Lochmaske treffen. Und schließlich wäre der größte Nachteil der Auflösungsverlust für die Größe des CCD-Arrays im Vergleich zu einem linsenbasierten analogen System.
Wenn wir supraleitende CCD-Arrays herstellen könnten, wäre dies viel effizienter als alles, was wir jetzt der Öffentlichkeit zur Verfügung stellen. Vor allem wenn es um die Lichtsammlung geht, jedoch immer noch nicht 100% perfekt, wenn man die Auflösungsbeschränkungen berücksichtigt.
Der Tag, an dem wir CCD-Elemente millionenfach kleiner machen können als das, was wir jetzt haben. Dann wird Ihre Idee wahrscheinlich einigermaßen funktionieren. Ich bin mir jedoch sicher, dass die Designer solcher Zukunftstechnologien bereits vor Ihnen daran gedacht haben.
Ich denke, dass wir bis dahin eine weitaus überlegenere Technologie haben werden. Wie zum Beispiel die Schaffung eines Energiefeldes unter Verwendung des Bose-Einstein-Kondensat-Effekts, der Photonen in einem Feld suspendieren kann. Dies würde es uns ermöglichen, einfallende Photonen, die in einer Matrix schweben, zu analysieren, und wir scannen das Bild mit der Auflösung eines Photons.
Die NASA hat die Bose-Einstein-Kondensat-Theorie bereits bewiesen, also wird es nicht mehr lange dauern. Mit dieser Art von Auflösung könnten wir vielleicht etwas so Kleines wie eine Fliege beobachten, die sich auf der Marsoberfläche in Hi-Definition reinigt. Der Bose-Einstein-Kondensat-Effekt bewirkt im Grunde, dass sich Quantenmaterie so verhält, als wäre sie Photonen/Wellen, während sich das Universum relativ wie ein Supraleiter verhält.
Mit anderen Worten, da sich Elektronen superschnell durch einen Supraleiter bewegen können, steht die vom Bose-Einstein-Effekt betroffene Materie relativ zum Universum fast still, während sich das Universum relativ superschnell um solche Quantenmaterie bewegt, die vom Bose-Einstein-Kondensatfeld beeinflusst wird .
Andy
Andy
Pierre Paquette