Wie funktionieren Radioteleskope?

Wenn ich online nach der Funktionsweise von Radioteleskopen suche, sprechen die gefundenen Artikel darüber, wie HF im Spektrum ist usw., wie der Parabolkollektor die Blende ist, die zur Empfindlichkeit beiträgt und die Signale im Brennpunkt in den Detektor reflektiert. Dann springen sie zur Signalverarbeitungsschaltung, die zu einem gerenderten Bild führt. Sie erwähnen auch, dass die am weitesten entfernten Knoten in einem Teleskoparray die virtuelle Apertur des Arrays bestimmen.

Es gibt ein paar Teile, die ich nicht verstehe: Wie funktioniert der Detektor? Nach meiner Lektüre ist es lediglich eine HF-Antenne. Ich kann mir nicht vorstellen, wie Sie nur ein Pixel pro "Moment" der Erkennung erhalten würden. Dass das Teleskop positioniert ist und zu hören beginnt, und wenn sich die Erde dreht, wird eine Scanlinie des Bildes erfasst. Für ein hochauflösendes 2D-Bild würde dies Tausende von Durchgängen erfordern. Dies scheint unpraktisch, da die Erde umkreist und die Zeit andernfalls weitergeht.

Vielleicht nehmen mehrere Teleskope jeweils eine Scanlinie und verschachteln die Ergebnisse ... aber besonders bei solch hohen Auflösungen kann ich nicht verstehen, wie Sie die riesigen Maschinen mit solcher Präzision konstruieren würden. Bitte erklären Sie mir das.

Habe ich die 1D-Scan-Line-Antennen-Idee falsch? Ist es eher wie ein 2D-CCD-Sensor in einer Digitalkamera mit der Antenne direkt hinter dem Fokus der Schüssel? Wenn ja, nehme ich an, dass der Sensor ein 2D-Array von Antennen im Nanometerbereich sein müsste?

Dies mag in der Erklärung klar sein, aber in Laienseeschwalben, wie arbeiten Teleskop-Arrays zusammen, um die virtuelle Apertur zu erzeugen? Was geht, wenn überhaupt, zwischen der virtuellen und einer theoretisch "realen" gleich großen Blende verloren?

(Ich betrachte dies als eine physikalische Frage, weil das Verständnis der Antwort auf diese reale Anwendung dazu beitragen wird, alle theoretischen Missverständnisse zu korrigieren, die ich über HF, Antennen und Radioteleskope habe.)

Vielen Dank!

Antworten (3)

Im Mikrowellenband gibt es hier Multielement-Detektoren, aber bei längeren Wellenlängen ist das Teleskop ein einzelnes Pixel.

Ja, es dauert eine Weile, bis ein Bild aufgebaut ist, aber Radiobilder sind normalerweise nicht sehr groß – nicht die Millionen von Pixeln eines optischen/IR-Bilds.

Ein großer Vorteil von Radioteleskopen besteht darin, dass Sie Teleskope kombinieren können, die 1000 km voneinander entfernt sind, um ein Bild mit der Auflösung einer einzigen so großen Schüssel zu erstellen (Sie können dies jetzt in der Optik mit einem Abstand von 100 m fast tun).

Kennen Sie das Interferenzmuster, das Sie mit zwei Schlitzen erhalten? Wenn Sie sich die beiden Teleskope als die beiden Spalte vorstellen und die Signale (elektrisch) interferieren, um das Streifenmuster zu bilden. Sie können dann die Form der Lichtquelle berechnen - ein einzelner Punkt erzeugt das klassische Fransenmuster, 2 enge Punkte erzeugen ein etwas anderes Muster usw.

Bearbeiten: Bau eines optischen 'Radio'-Teleskops - die ursprüngliche englische Lösung und das etwas beeindruckendere teutonische Ergebnis (wenn Sie viel mehr $$$ haben)

Es kommt darauf an, um was für ein Radioteleskop es sich handelt.

Wenn Sie von einem einzelnen Gericht sprechen, beispielsweise einem Hornfeed im Fokus, verhält es sich wie eine normale „Parabolantenne“, indem es Funkwellen auf den Fokus fokussiert, wo es verstärkt und auf irgendeine Weise verarbeitet wird (z. B. Abwärtskonvertierung). , digitalisiert usw. Eine einzelne Schüssel kann auch ein Speisearray im Fokus haben, um analog zu einem Kamerasensor zu wirken.

Wenn Sie über ein Radioteleskop- Array sprechen , kann es auf zwei Arten arbeiten.

Bei dem ersten Verfahren sind die Antennen in dem Array auf die Quelle gerichtet und empfangen Signale, die aufgrund der Pfaddifferenz, die mit den relativen Positionen der Antennen und der Quelle verbunden ist, unterschiedliche Phasen aufweisen. Diese Phasendifferenzen werden korrigiert, die Signale werden kombiniert und dann wie zuvor verarbeitet. Dies wird normalerweise verwendet, wenn eine Punktquelle (z. B. ein Pulsar) mit einem Teleskoparray beobachtet wird.

Der zweite Weg ist als Interferometer. Diese Methode wird verwendet, um Radiobilder von (normalerweise) ausgedehnten Quellen wie Radiogalaxien zu erstellen. Bei diesem Verfahren werden die Phasenunterschiede nicht entfernt, sondern zusammen mit der Rotation der Erde verwendet, um ein Fourier-synthetisiertes Bild zu erzeugen. Das gemessene Signal jeder Antenne wird mit denen aller anderen Antennen korreliert, um die sogenannte „Sichtbarkeit“ zu erhalten. Wenn Sie die Fourier-Transformation der gemessenen Sichtbarkeiten nehmen, erhalten Sie die Helligkeitsverteilung im Himmel (auch bekannt als das Bild). Dem Verhalten der Fourier-Transformation folgend messen lange Basislinien (weiter voneinander entfernte Antennen) kleine räumliche Variationen (hohe Raumfrequenz) in der Helligkeitsverteilung, während kurze Basislinien große räumliche Variationen (niedrige Raumfrequenz) messen. Mit anderen Worten,

Das Kapitel „Antennen & Radiometer“ dieses Kurses sollte Ihnen mehr Details erzählen: http://www.cv.nrao.edu/course/astr534/ERA.shtml

Diese Vorträge der Sechsten NRAO/NMIMT-Sommerschule für synthetische Bildgebung könnten ebenfalls hilfreich sein: http://adsabs.harvard.edu/cgi-bin/nph-abs_connect?version=1&warnings=YES&partial_bibcd=YES&sort=BIBCODE&db_key=ALL&bibstem=Synthesis+Imaging +in+Radio+Astronomy+II&year=&volume=&page=&nr_to_return=100&start_nr=1

Eine einzelne Schüsselapertur kann einen einzelnen Pixeldetektor betreiben, aber dieses auf den Himmel projizierte Pixel kann im Vergleich zu optischen und Infrarotteleskopen ziemlich groß sein.

Die Auflösung ist proportional zur Wellenlänge und kann daher das Tausendfache der optischen Auflösung betragen. Daher kann ein Radioteleskop sein Bild in angemessener Zeit aufnehmen, einfach weil es auf größere Ziele zielt und „schlechtere“ Bilder macht, als Sie sich vorstellen können.