Wie genau lässt sich die Entfernung eines Sterns messen?

Mit dem Start der GAIA-Mission vor einigen Jahren wurde ein neuer Präzedenzfall für die Fähigkeit der Menschheit geschaffen, unser Universum zu kartieren. Doch wie genau sind die dabei entstehenden Entfernungen? Auf der ESA-Website habe ich Folgendes gefunden:

Im endgültigen Gaia-Katalog, der Anfang der 2020er Jahre erwartet wird, werden hellere Objekte (Größenklasse 3-13) Positionen mit einer Genauigkeit von 5 Mikrobogensekunden, Parallaxen mit 6,7 Mikrobogensekunden und Eigenbewegungen mit 3,5 Mikrobogensekunden pro Jahr messen

Wenn wir den Wert 6,7 nehmen und das in die Gleichung einsetzen: d=1/p, erhalten wir d=1/0,0000067=150.000 Parsec. Dies ist immens genau, da die meisten Quellen mir sagen, dass die genaueste bei etwa 1000 Parsec liegt (genau auf 0,001 Bogensekunden). Sind meine Berechnungen korrekt, oder habe ich irgendwo einen falschen Wert verwendet?

Fragen Sie, ob die ESA einen Fehler gemacht hat?
Ich frage, ob ich richtig gerechnet habe
Oh ich sehe. Ich werde meine Antwort entsprechend ändern.

Antworten (1)

Die Zahl ist die Genauigkeit. Für einen Stern bei 15.000 Parsec, was einer Parallaxe von 67 Mikrobogensekunden entspricht, würde dies eine Genauigkeit von 10% dieser Entfernung bedeuten.

Vielen Dank für Ihre Antwort. Ich verstehe jedoch nicht, woher 10% Genauigkeit kommen? Hätte ein Stern mit 1.500 Parsec dann eine Genauigkeit von 1 %?
Richtig. 1500 Parsec entsprechen 670 Mikrobogensekunden und die Genauigkeit von 6,7 Mikrobogensekunden ergibt 1 % Genauigkeit der Entfernung, also ± 15 Parsec.