Der TechCrunch-Artikel NASA beschreibt Deep Space Atomic Clock und andere Tests, die auf SpaceX Falcon Heavy gestartet werden, sagt:
Jill Seubert, Deep Space Navigator für die NASA, erklärte, dass dies die weltweit erste ionenbasierte Atomuhr im Weltraum ist. „Sie ist etwa 50-mal stabiler als die von uns verwendeten GPS-Atomuhren“, fügt hinzu, dass wir derzeit von der Erde aus navigieren müssen, weil die Uhren an Bord von Raumfahrzeugen wirklich nicht sehr gut darin sind, die Zeitgenauigkeit aufrechtzuerhalten.
und sagt dann später:
Dies wird eine Einwegverfolgung ermöglichen, wenn es mit Daten gekoppelt ist, die von einer Bordkamera gesammelt werden, indem ein Signal von der Erde zum Raumfahrzeug oder vom Raumfahrzeug zur Erde verwendet wird, jedoch ohne dass eine Hin- und Rückfahrt erforderlich ist. Dies ermöglicht eine effizientere Verfolgung aller Flüge, da Sie weniger Zeit mit einem bestehenden Deep-Space-Netzwerk teilen müssen. Es ermöglicht auch „selbstfahrende Raumfahrzeuge“, wie Seubert es ausdrückte , die keinerlei Anweisungen von Navigatoren auf der Erde benötigen. (Betonung hinzugefügt)
Frage: Wie genau erleichtert eine Atomuhr ein „selbstfahrendes Raumschiff“, wenn sie mit einer Bordkamera gekoppelt ist?
Ist es immer noch notwendig, ein Leuchtfeuer-Zeitsignal von der Erde zu empfangen? Wofür genau ist die Kamera?
Verwandt:
Ich habe mit den beiden Leitern des DSAC in der letzten AMA auf reddit gesprochen. Hier sind meine Mitbringsel. Zuerst möchte ich auf diese großartige Antwort hinweisen , die erklärt, wie die Uhr verwendet werden kann, um die Navigation mit dem DSN zu vereinfachen. Ich werde mich speziell darauf konzentrieren, wofür die Kamera ist.
Es gibt zwei Arten der Orbitbestimmung: Absolute Navigation und relative Navigation. Die absolute Navigation beantwortet die Fragen, wo ich mich im Sonnensystem befinde, in einem Inertialsystem. Die relative Navigation beantwortet die Frage, wo ich mich relativ zu einem interessierenden Objekt (normalerweise einem anderen Raumschiff) befinde. Beispielsweise verwendet das Dragon-Raumschiff einen LIDAR-Relativnavigationssensor für Annäherungsoperationen während des Andockens an die ISS. Kameras wurden vorgeschlagen, um Lidars bei der relativen Navigation zu ersetzen
Die relative Navigation leidet unter einem Problem, sie ist nicht vollständig beobachtbar. Sie können Ihren absoluten Orbitalzustand nicht nur aus relativen Messungen kennen (im Allgemeinen gibt es Möglichkeiten, ihn beobachtbar zu machen). Eine absolute Navigation (auch wenn sie auf den Meter genau ist) reicht im Allgemeinen nicht für Näherungsoperationen aus; daher die Notwendigkeit einer relativen Navigation.
Viele Raumfahrzeuge verwenden bereits eine autonome relative Navigation, konnten jedoch aufgrund der sehr strengen Zeitanforderungen keine absolute Bestimmung an Bord durchführen. Mit dem DSAC könnte nun jedes Raumschiff sowohl absolute als auch relative Navigationssysteme an Bord haben. Sobald Sie die Flugbahnoptimierung an Bord haben, müssen Sie dem Raumschiff nur noch ein Ziel zuweisen, und es könnte von selbst dorthin gelangen und dort Näherungsoperationen mit wenig bis gar keiner Bodenunterstützung durchführen (außer dass das DSN einen Zeitstempel sendet).
Lesen Sie dieses und dieses DSAC -Papier , um das DSAC besser zu verstehen. Die DSAC-Leiter empfahlen mir diese Papiere (sie haben auch beide Papiere geschrieben).
Da die genaue Zeit jetzt auf dem Raumfahrzeug selbst verfügbar ist, kann diese mit Sternverfolgungs- und Röntgenpulsarnavigation (X-Nav) kombiniert werden, um eine genaue Position, Rotation und Geschwindigkeit zu bestimmen. Frühere weniger genaue Uhren von Raumfahrzeugen würden eine ständige Neukalibrierung von Erdfunksystemen mit ihren eigenen Atomuhren erfordern.
Vor 50 Jahren war es so gut wie unmöglich, alle Orbitalnavigationsberechnungen an Bord eines Raumfahrzeugs durchzuführen. Berechnungen und Flugbahnbestimmung wurden vom Boden aus durchgeführt, und die Computer des Raumfahrzeugs waren eher für Autopilot- und „Flugassistenz“-Aufgaben gedacht.
Uwe