Warum ist der Datenspeicherplatz des James-Webb-Weltraumteleskops so klein?

In einer früheren Frage habe ich erfahren, dass der Solid State Recorder (SSR) des JWST mindestens 58,8 GB an aufgezeichneten wissenschaftlichen Daten speichern kann. Was jeden Tag zwei 4-stündige Downlinks mit der Erde erfordert, um seine Datenpuffer zu leeren. In einer anderen Frage erfahre ich, dass sich der Speicher des Raumfahrzeugs in nur 160 Minuten füllen könnte.

Ich frage mich, warum sich die Designer dafür entschieden haben, diesem 10 Milliarden Dollar teuren, hochmodernen Satelliten so wenig Speicherplatz zu geben?

Ich frage, weil ich annehme, dass es Zeiten geben könnte, in denen eine Übertragung nicht im geplanten Zeitrahmen abgeschlossen wird oder in denen sie aufgrund von Problemen mit der Bodenkontrolle einen Tag verpassen könnte. Oder sogar eine Zeit, in der es aufhören muss, Daten zu sammeln und auf sein Downlink-Fenster warten muss, weil die Festplatte voll ist.

Wäre das Raumschiff nicht zukunftssicherer, wenn es einen größeren Datenpuffer hätte, damit es auch nicht von irgendwelchen „Festplatten“-Sektoren beeinträchtigt wird, die während seines Betriebs beschädigt wurden?

Oder gibt es etwas, das ich nicht in Betracht ziehe, wie vielleicht eine Designbeschränkung?

Als Oldie ist die Vorstellung, dass 60 GB Solid-State-Speicher als „so klein“ gelten würden, abwechselnd urkomisch und deprimierend.
Ja, einige moderne Benchmarks, die Sie beachten sollten: 1) Die TESS Flash Memory Card (FMC) enthält 192 GB Massendatenspeicher. 2) Mein Handy hat 516 GB Speicherplatz und eine 108-Megapixel-Kamera mit 1 Foto (jpg, verlustbehaftet komprimiert) mit 22,6 Megabyte. Das bedeutet, dass sich der SSR des JWST mit 2,6 meiner Handyfotos füllen würde.
Nein, 2600 Ihrer Fotos.
Es hängt wirklich vom Instrument und der Mission ab. Der Himmel ändert sich sowieso nicht viel, sodass Sie nicht oft Tausende von Bildern pro Tag aufnehmen.
Du hast recht, meine Rechnung war falsch
Solid State Disks haben eine Menge „zusätzlicher“ Kapazität eingebaut, um den Verschleiß zu nivellieren und ausgefallene Blöcke zu ersetzen – je größer die „bewertete“ Größe der Speichereinheit, desto mehr „zusätzliche“ Kapazität hat sie. Für etwas so Kritisches wie dieses würde es mich nicht überraschen, wenn die tatsächliche Kapazität angesichts der erwarteten Lebensdauer des Teleskops, seiner Arbeitsumgebung, Nutzungszyklen usw. viel mehr als das Doppelte der „Nennkapazität“ wäre. Wenn Sie die „ Nennkapazität“, sollten Sie auch die redundante Kapazität erhöhen. Ich muss hier einige Besonderheiten recherchieren.
@RussellBorogove Selbst als moderne SRE/DevOps-Person Ende 20 klingt der Gedanke, dass 60 GB Speicher „klein“ sind, lächerlich. Ich habe regelmäßig mit Systemen mit einstelligem GB Speicher zu tun und habe mit Hardware gearbeitet, bei der der persistente Speicher in einstelligen MB gemessen wurde.
@GabrielFair JWST-Vertrag wurde 2003 vergeben. TESS-Vertragsvergabe war 2013, ein Jahrzehnt später. TESS verfügt also über viel aktuellere Technologien. TESS nähert sich drei Jahren im All, JWST bleibt am Boden. Stelle dir das vor.
@user3528438 Viele der interessanten Sachen ändern sich schnell. Aus diesem Grund nimmt TESS aufgrund der Erfahrung mit den tatsächlichen Grenzen seiner Datenverarbeitung jetzt alle 10 Minuten statt wie geplant alle 30 Minuten „Vollbild“-Bilder auf. Seine Benutzergemeinschaft war begeistert.
@GabrielFair, der Speicher Ihres Telefons ist nicht strahlungsgeschützt. Setzen Sie es auf das JWST, und die Chancen stehen gut, dass es versagt, bevor das Teleskop überhaupt in Position ist.
Ganz zu schweigen davon, dass strahlungsgehärtete Knotengrößen unter 32 nm immer noch schwer zu finden sind. Ja, das LEON2-FT ist deutlich schlechter als alles andere in 2020-Handys, aber ich würde gerne sehen, wie das Handy in den Weltraum geht ...
Der Flash-Speicher Ihres Telefons nutzt sich mit der Zeit auch ohne Strahlung ab. Einige interessante Daten zur Automobilnutzung
Als ehemaliger Raketeningenieur war es eine der größten Enttäuschungen des Jobs, am ersten Tag zu erfahren, dass man nicht mit der Technologie der nächsten Generation spielen konnte. Sie mussten Next-Gen-6 verwenden, weil es die einzige Technologie war, die der rauen Umgebung des Weltraums standhalten konnte. Bonus: Es gab nur 1 Hersteller, der noch so alte Hardware herstellte. Seufzen.
@JS Einige Missionen vermeiden dies jedoch bis zu einem gewissen Grad. Ich scherzte, dass die QPL für HETE-2 der Digi-Key-Katalog sei, aber es war nah an der Wahrheit. Der einzige elektronische Ausfall, den wir in sechs Jahren Betrieb im Orbit hatten, war unser GPS-Empfänger, der ein für den Weltraum geeignetes Gerät war. Als wir im Jahr 2000 auf den Markt kamen, war die Technologie jedoch etwas alt, Anfang der 90er Jahre. Dies war zum Teil darauf zurückzuführen, dass HETE-2 ein Umbau mit wenigen Änderungen gegenüber HETE-1 war, bei dem 1996 ein Trägerraketenausfall auftrat.

Antworten (5)

Beste verfügbare Technologie

Bis Ende 2002 hatten SSDs gerade einmal eine Kapazität von ~80 GB erreicht. Natürlich wird JWST kein Produkt nehmen, das noch nie in Unternehmen eingesetzt wurde, und es mit gekreuzten Daumen in eine 2-Milliarden -Dollar -Plattform stecken, in der Hoffnung, dass der Anbieter wirklich gute Arbeit geleistet hat. Die oben erwähnte Spitzenklasse gilt für terrestrische Laufwerke der Verbraucherklasse. Sobald wir die Strahlungshärtung für die Weltraumnutzung, die bestehende Produktgeschichte für Vertrauen und die zusätzliche Redundanz berücksichtigen, die Missionsdesigner gewählt haben, um ihr über 2 Milliarden Dollar teures Spielzeug für eine Lebensdauer von 5 bis 10 Jahren abzusichern, sehen 68 GB ziemlich vernünftig aus.

Zeitleiste

Ja, es dauerte 10 Jahre, um von MB zu GB zu gelangen, und weitere 10, um von GB zu TB zu gelangen. So hatten wir 2010 bereits TB-Standalone-Laufwerke (keine Arrays) in einem COTS 3,5-Zoll-SATA-Formfaktor. Aber 2007 hatte das JWST bereits die meisten Kernprüfungen bestanden, sodass die Technologie Jahre zuvor ausgewählt worden sein musste, mit was auch immer war damals verfügbar. Bis 2006 hatte die NASA bereits 1 Milliarde US-Dollar für das Projekt ausgegeben. Der Hauptauftrag wurde 2003 vergeben. Es ist nicht schwer vorstellbar, dass die Datenspeichertechnologie innerhalb von ein oder zwei Jahren nach diesem Zeitpunkt ausgewählt wurde. da sie nur 3 Jahre später bereits eine Milliarde Dollar in der Entwicklung verbrannt hatten.

Wenn wir JWST jetzt neu entwerfen würden, könnten wir so etwas wie den weltraumtauglichen RH3440 mit 440 GB von Mercury wählen . Dies ist Spitzentechnologie, und es sind nicht einmal 1 TB. Beachten Sie auch, dass es eine "primitivere" Single-Level-Cell-NAND-Technologie anstelle von Quad-Level-Cells mit hoher Dichte verwendet. Offensichtlich dient dies der Robustheit und einem Teil dessen, was es weltraumtauglich macht. Aus diesem Grund können Sie Consumer- und Space-Grade-Produkte nicht auf Augenhöhe vergleichen. Natürlich könnten wir ein paar davon in das JWST einbauen und über 1 TB Speicherplatz bekommen, aber ich könnte mir vorstellen, dass die Aufnahme von mehr als einem Dutzend davon die Größen- und Leistungsbeschränkungen verschieben würde. Nehmen wir also an, wir könnten bis zu 6 TB Speicherplatz für JWST 2.0, Ausgabe 2021 erhalten.

Das exponentielle Wachstum der SSD-Dichte folgt einem ungefähren Verhältnis von 1000x pro 10 Jahre. Spulen Sie 10 Jahre bis 2011 zurück, und wir würden erwarten, nur 6 GB an Bord zu bringen, wenn Sie die damals verfügbare Spitzentechnologie für die Raumfahrt verwenden. Gehen Sie 17 Jahre zurück bis 2003-4, und die Tatsache, dass es über 60 GB SSD-Speicher verfügt, sieht tatsächlich ziemlich bemerkenswert aus, wenn man bedenkt, dass wir es auf vielleicht 60 MB (Weltraumklasse!!!) extrapolieren würden. An Bord von JWST befinden sich möglicherweise weit mehr als ein Dutzend diskreter Laufwerke (auf dieser Granularitätsebene können keine Designdetails gefunden werden).

Die eigentliche Frage ist nicht: "Warum gibt es so wenig Speicherplatz?" sondern: "Wie haben sie so viel an Bord bekommen?" Vielleicht durften sie den Speicher später im Designprozess betrügen und auf neuere, aber immer noch ausgereifte Technologie aktualisieren. Die Critical Design Review, die meiner Meinung nach viele Entscheidungen in Stein gemeißelt hat, fand 2010 statt. Wenn sie Fortschritte in 6-7 Jahren erzielen könnten, könnte dies eine 100-fache Verbesserung gegenüber den erwarteten Kapazitäten erklären.

Was nur zeigt, dass es schön gewesen wäre, ein "Plug & Play"-System zu entwerfen, das problemlos größere Speichereinheiten aufnehmen könnte. Also geht es. (siehe auch 32-Bit- vs. 64-Bit-Betriebssysteme usw.)
@CarlWitthoft Mein Verständnis ist, dass VPX die Mil/Space-Version von PCI ist und einen vergleichbaren Funktionsumfang bietet: en.wikipedia.org/wiki/VPX . Das Problem liegt nicht in der Zuweisung von IRQs oder Basisadressen, sondern in den Tests und Validierungen, die erforderlich sind, um sicherzustellen, dass jeder Teil, den sie an Bord einbauen, tatsächlich die versprochene Leistung erbringt. Ich bin sicher, was auch immer sie validiert haben, könnte mehr oder weniger ohne Fanfare in den Bus gesteckt werden.
Gute Argumente. Aus früheren Arbeitsprojekten ist mir schmerzlich bewusst, wie viel Aufwand erforderlich ist, um Teile zu qualifizieren.
Ich erwarte übrigens nicht, dass SSD weiterhin alle 10 Jahre 1000x skaliert. Es scheint, dass die SSD-Technologie deutlich hinter den Fähigkeiten der Chipherstellung zurückblieb und dann aufholte. Inzwischen ist das Aufholen beendet.
Ich denke, es gibt eine Grenze, wie viel Speicherplatz Sie dort oben tatsächlich benötigen würden. Wenn es nur 2 vierstündige Kontakte mit der Erde pro Tag gibt und beide benötigen, um 60 GB vollständig zu leeren, dann bedeutet 120 GB nur, dass es zwei ganze Tage dauert, anstatt einen zu leeren. Sie würden am Ende "ständig hinten" landen, weil Sie den Puffer gefüllt haben, bevor Sie ihn vollständig geleert haben. Der Speicherplatz ist also gewissermaßen durch die Bandbreite zurück zur Erde begrenzt.
@ user253751 stimme größtenteils zu. Die derzeit größte ist 100 TB statt 1000, scheint aber eher durch die Nachfrage als durch den technischen Fortschritt begrenzt zu sein. Das Wachstum hat sich also deutlich verlangsamt, aber vielleicht, weil niemand es rechtfertigen kann, 40.000 Dollar für ein so kräftiges Stück Hardware auszugeben.
@LawnmowerMan stimmt, Sie können je nach Formfaktor noch größere Chips herstellen, indem Sie weitere Chips hinzufügen.

Weltraumhardware ist fast immer ziemlich archaische Technologie. Das Problem ist die lange Vorlaufzeit in Verbindung mit der Notwendigkeit, es für den Flug zu zertifizieren. Es war nicht archaisch, als es entwickelt wurde. Das JWT wurde 2005 neu gestaltet, also schauen Sie sich die Technologie von 2005 an, nicht die Technologie von 2020.

Betrachten Sie die Technologie von 1995 statt die Technologie von 2005. Die Raumfahrt-Avionik hinkt dem Stand der Technik mindestens ein Jahrzehnt hinterher, und die Verzögerung wird schlimmer, je kleiner die Chip-Größen werden.
@DavidHammen Ich denke, das Redesign hat die Technologie wahrscheinlich auf die Standards von 2005 aktualisiert.
Die Avioniktechnologie für den Einsatz im Weltraum war 2005 zehn Jahre hinter der Zeit zurück (hinter dem Stand der Praxis, geschweige denn dem Stand der Technik). Sie ist jetzt noch weiter hinter der Zeit zurück.
Und ich bin mir sicher, dass ein weiterer Vorteil der Verwendung von Software aus dem Jahr 2005 in einem Fahrzeug aus dem Jahr 2021 darin besteht, dass sie etwa 15 Jahre Zeit hatten, um sich über eventuell auftretende Fehler usw. zu informieren. Die 5-TB-SSD, die Firma X heute veröffentlicht hat, wurde nicht annähernd so getestet .
Meine zwei Cent: Das Problem ist, dass es Jahre gedauert hat, 10 oder 15 Jahre, um ein Projekt wie dieses zu entwerfen, Budget zu bekommen und zu starten. Offensichtlich wäre die Technologie zum Zeitpunkt ihres Einsatzes veraltet. Aber andererseits ist es nicht so problematisch. Das Senden von Informationen zur Erde sollte regelmäßig erfolgen, und selbst wenn es irgendwann einmal dauert, solange es die Fähigkeit des Teleskops, erstaunliche Entdeckungen zu machen, nicht beeinträchtigt, kann der Wissenschaftler ein wenig Verzögerung ertragen.
Ich denke, diese Antwort geht implizit davon aus, dass Sie einfach einen modernen CPU- / Flash- / RAM-Chip nehmen und in die Umlaufbahn schicken könnten, wenn Sie die Zertifizierungszeit verkürzen könnten. Das ist nicht so; Elektronik ohne Strahlungshärtung wird außerhalb unserer Magnetosphäre nicht lange überleben, und sie wird ziemlich unzuverlässig sein, solange sie noch funktionsfähig ist. Darüber hinaus ist ein IC umso anfälliger, je höher die Dichte ist - dies ist einer der Gründe für strahlungsfeste Elektronik, die viel größere Prozessknoten wie 32 nm (LEON) oder 150 nm (RAD750) verwendet.
Darüber hinaus ist die Elektronik im Weltraum einer erheblichen Strahlung ausgesetzt, was die Chancen einschränkt, die Möglichkeiten auf der Erde auszuschöpfen.
Ich denke, das bedeutet, dass mein Plan, auf der Reise zum Mars die neuesten AAA-Videospiele zu spielen, nicht funktionieren wird.
@thkala: Solid-State-Speicher ist heutzutage Flash NAND, und das ist ziemlich Hochspannungselektronik. Das Problem mit RAM und CPUs ist, dass sie Niederspannung haben und daher selbst ein Niedrigenergieereignis eine Unterbrechung verursachen kann. Flash würde den Übergang wahrscheinlich überleben, und seine standardmäßigen Fehlerkorrekturcodes werden einige ziemlich große Fehler abfangen. Sie würden TLC immer noch nicht wollen, da es durch Verringern der Spannungsunterschiede 3 Bit pro Zelle packt, aber dieselbe Zelle im 2-Bit-SLC-Modus würde wahrscheinlich im Weltraum gut funktionieren.
@MSalters Wenn Sie 2 Bit pro Zelle meinen, wird dies allgemein als MLC ("Multi-Level") bezeichnet. Da fehlt es völlig an Voraussicht, sodass "Multi" jetzt immer zwei bedeutet, verglichen mit Tri-Level- und Quad-Level-Zellen .) SLC ist ein (1) Bit pro Zelle.

Die anderen Antworten sind gut. Ich möchte hinzufügen, dass Projektpläne normalerweise aufgrund falscher Budgetbeschränkungen nicht genügend Iterationen erwarten. Ein Projektplan ist wie ein Schlachtplan – er überlebt selten den Kontakt mit der Realität. Planen Sie, die ersten (günstigeren, teilweisen) Versionen wegzuwerfen, und Sie haben die Flexibilität, die Technologie basierend auf neuen Informationen zu aktualisieren.

Ein großartiges Beispiel für einen Projektplan mit eingebauter Iteration war die Serie Mercury/Gemini/Apollo – diese Bemühungen wären schrecklich gescheitert, wenn wir geplant hätten, beim ersten Start Stiefel auf die Mondoberfläche zu setzen.

Shuttle ging in die andere Richtung – da Enterprise der einzige Orbiter-Prototyp war, der finanziert wurde, konnten wir dieses System nie zu einem System weiterentwickeln, das wirklich sicher, zuverlässig oder billig war.

In den letzten Jahren haben wir endlich begonnen, neuere Trägerraketen und Satellitenkonstellationen zu sehen, die eher einem iterativen Entwicklungspfad folgen – die Kontraste in Zeitplan, Kosten und Fähigkeiten sind frappierend.

Wenn keine Iteration eingebaut ist, werden frühe Entscheidungen gründlich analysiert und Fehler auf der sicheren Seite gemacht, weil jeder, der diese Entscheidungen trifft, weiß, dass es kaum Möglichkeiten gibt, Hardware zu testen, bis es zu spät ist, sie zu ändern. Die daraus resultierenden Einschränkungen müssen im weiteren Projektverlauf als Zwänge hingenommen werden. Diese intern erzeugten Einschränkungen führen wiederum dazu, dass Projekte Überstunden machen, das Budget überschreiten oder vollständig scheitern.

Es ist bizarr zu glauben, dass, obwohl es in der Wissenschaft nur um Veränderungen auf der Grundlage neuer Informationen geht, „große wissenschaftliche“ Projekte diese Funktion selten in ihre eigenen Pläne und Verträge integrieren können – Partner und Anbieter werden in der Regel beauftragt, einmal vollständige, fertige Produkte zu liefern , vorher vollständig spezifiziert und beim ersten Mal richtig gebaut. Das Universum funktioniert einfach nicht so.

"In den letzten Jahren haben wir endlich begonnen, neuere Trägerraketen und Satellitenkonstellationen zu sehen, die eher einem iterativen Entwicklungspfad folgen - die Kontraste in Zeitplan, Kosten und Fähigkeiten sind auffällig." Wenn nur die NASA solche Entwicklungspfade verfolgt hätte...

Rückblickend sieht die Technik zwangsläufig primitiv aus. Ein Zitat ist wohl nur eine Legende, soll Bill Gates schon 1981 gesagt haben: „640K sollten genug für jeden sein.“ Und für die Menschen damals war das wahrscheinlich vernünftig.

Beachten Sie, dass 1991

SanDisk liefert sein erstes Solid-State-Speicherlaufwerk oder SSD aus. Die SSD hatte eine Kapazität von 20 MB und wurde für ungefähr 1.000,00 $ verkauft. Es wurde von IBM im ThinkPad-Stiftcomputer verwendet.

Die 1.000 $ werden hier kein Problem sein. Aber 20 MB waren die Bombe. Vor einigen Jahren kaufte ich die kleinsten USB-Sticks auf dem Markt, um einige Dokumente zu verschenken, und sie waren viel größer.

1999 machte BiTMICRO eine Reihe von Einführungen und Ankündigungen zu Flash-basierten SSDs, darunter eine 18-GB-3,5-Zoll-SSD.

Für Leute, die den Satelliten gegen Ende des 20. Jahrhunderts entworfen haben, sahen die 60 GB nach einer Art „Wow, ich wünschte, ich hätte das zu Hause“ Volumen aus.

Das Lustige ist, dass SSD-Laufwerke meistens leerer Speicherplatz sind. Sie könnten wahrscheinlich genug Chips in eine 3,5-Zoll-SSD einbauen, um eine Petabyte-Kapazität zu haben, aber es wäre furchtbar teuer, da so viele darin sind

Da erwartet wird, dass es seine Daten zwischen den Zielen herunterladen kann, benötigt es daher keine großen Mengen an Speicherplatz, und alle Daten, die es ansammelt, werden Zeit zum Herunterladen benötigen, sodass es nicht viel Sinn macht, einen riesigen Puffer aufzubauen.

Ich bin mir ziemlich sicher, dass Sie hier Ursache und Wirkung rückwärts haben
@CarlWitthoft könnten Sie bitte Ihren Kommentar präzisieren? Die Datenmenge, die für einen bestimmten Zeitraum gespeichert werden kann, ist die gleiche, die für die gleiche Zeit heruntergeladen werden kann ... Wenn Sie also 1 GB pro Tag herunterladen können, gibt es einen negativen Wert, um mehr als das zu speichern (da der Speicher schließlich überläuft). ... Und beachten Sie, dass Sie Ihren ISP nächsten Monat einfach zweimal bezahlen können, um eine schnellere Download-Geschwindigkeit zu erhalten - ein größerer/leistungsstärkerer Sender wird nicht von selbst in den Weltraum fliegen ... Hardware (entweder Festplatten oder Kommunikation) im Vergleich zu Daten hat Gewicht und das Kosten pro kg sind auch heute noch nicht umsonst (war damals etwa 20x teurer)
@CarlWitthoft nicht ganz. Wenn Sie auf Masse und Volumen beschränkt sind, gehen Sie mit der kleinsten Masse und dem kleinsten Volumen, mit dem Sie davonkommen können. Wenn dies zu einem 60-GB-Speicherlaufwerk führt und Sie dies innerhalb Ihrer anderen Anforderungen zum Laufen bringen können, ist dies das Richtige für Sie.