In diesem Video erwähnt Katie Bouman, dass ein erdgroßes Teleskop verwendet werden muss, um Bilder wie das Schwarze Loch M87 zu erhalten:
Sternentfernungen werden unter Verwendung von Parallaxenmessungen auf verschiedenen Seiten der Erdumlaufbahn geschätzt. Warum können wir keine Teleskope an diametral gegenüberliegende Enden der Erdumlaufbahn schicken und Bilder aufnehmen und sie später mit denselben Algorithmen zusammenführen? Es scheint, dass nur wenige Teleskope benötigt wurden und wir könnten wahrscheinlich ein paar über das Sonnensystem oder größere Entfernungen schicken. Dies würde uns helfen, weitere Details zu klären.
Das ist eine großartige Frage!
Um die Parallaxe eines Objekts ohne Eigenbewegung zu messen , können wir mit nur zwei Bildern eines (sich bewegenden) Vordergrundsterns vor einem Hintergrund aus mehreren "festen" Sternen auskommen. Wir brauchen nur eine ausreichende Auflösung, um die Beugungsscheibe ( Airy ) eines Sterns von den anderen Sternen mit ausreichender Präzision zu erkennen, um die Bewegung aufgrund der Parallaxe aufzulösen.
Sie können die zentrale Position eines "Blobs" viel genauer messen als die FWHM des Blobs, solange Sie viele Photonen haben und systematische Fehler und Probleme im Zusammenhang mit der Pixelgröße gut in den Griff bekommen. Solange es sich um separate und individuelle Sterne handelt, müssen Sie die Scheibe jedes Sterns nicht auf 1 mas auflösen, um einen relativen Abstand zwischen ihnen mit einer Genauigkeit von 1 mas zu erhalten.
Das Gaia-Raumschiff ist ein Beispiel für ein Weltraumteleskop mit einer bescheidenen (rechteckigen) Öffnung von etwa 0,5 x 1,4 Metern, aber es produziert riesige Mengen extrem präziser Parallaxenmessungen.
Über einen Zeitraum von einem halben Jahr bewegt sich Gaia zu „diametral gegenüberliegenden Enden der Erdumlaufbahn“ und nimmt kontinuierlich Bilder auf. Die Idee ist, fünf bis sieben Bilder des größten Teils des Himmels zu erhalten, um die Parallaxe von der Eigenbewegung von den systematischen und zufälligen Rauschquellen zu trennen.
Dies sind jedoch Bilder und enthalten keine Phaseninformationen. Wie ich in dieser Antwort auf Ist digitale adaptive Optik möglich erklärt habe? Die Techniken, die wir verwenden, um optische Bilder zu erzeugen und aufzuzeichnen, verlieren im Allgemeinen alle Phaseninformationen, was übrig bleibt, ist nur die Intensität, nicht die komplexe Amplitude.
Interferometrie erfordert die Interferenz von Amplituden und die Phase jedes Signals ist der Schlüssel. Wie in dieser Antwort ausgeführt, können wir dies für Mikrowellen und niedrigere Frequenzen mit Hochgeschwindigkeits-ADCs (GHz) und häufig einer gewissen Abwärtswandlung tun, aber wir tun dies im Allgemeinen nicht für sichtbares Licht.
Für das EHT-Bild des Schwarzen Lochs verwendeten sie Atomuhren an jedem Teleskopstandort und synchronisierten sie mit Dingen wie GPS-Zeitsignalen und nahe gelegenen Kalibrierungsobjekten am Himmel.
Nicht, dass dies nicht für sichtbares oder nahes IR-Licht demonstriert worden wäre, aber es ist nicht etwas, das Sie einfach in einen Satelliten einbauen können. Eine Möglichkeit, dies zu tun, besteht darin, einen Laserstrahl zwischen zwei Raumfahrzeugen zu teilen und ihn mit einem schmalen Bereich optischer Frequenzen von jedem der Teleskope zu mischen und das resultierende Überlagerungssignal mit einer Bandbreite von einem GHz oder hoffentlich einer viel höheren Bandbreite aufzuzeichnen. Sie müssten auch die Entfernung zwischen den beiden Satelliten in der Größenordnung einer Lichtwellenlänge rekonstruieren, um aussagekräftige Daten zu erhalten.
Das ist nicht unmöglich, aber es ist wirklich schwierig und würde eine ziemliche technologische und budgetäre Herausforderung darstellen.
äh
äh