In einer früheren Frage habe ich erfahren, dass der Solid State Recorder (SSR) des JWST mindestens 58,8 GB an aufgezeichneten wissenschaftlichen Daten speichern kann. Was jeden Tag zwei 4-stündige Downlinks mit der Erde erfordert, um seine Datenpuffer zu leeren. In einer anderen Frage erfahre ich, dass sich der Speicher des Raumfahrzeugs in nur 160 Minuten füllen könnte.
Ich frage mich, warum sich die Designer dafür entschieden haben, diesem 10 Milliarden Dollar teuren, hochmodernen Satelliten so wenig Speicherplatz zu geben?
Ich frage, weil ich annehme, dass es Zeiten geben könnte, in denen eine Übertragung nicht im geplanten Zeitrahmen abgeschlossen wird oder in denen sie aufgrund von Problemen mit der Bodenkontrolle einen Tag verpassen könnte. Oder sogar eine Zeit, in der es aufhören muss, Daten zu sammeln und auf sein Downlink-Fenster warten muss, weil die Festplatte voll ist.
Wäre das Raumschiff nicht zukunftssicherer, wenn es einen größeren Datenpuffer hätte, damit es auch nicht von irgendwelchen „Festplatten“-Sektoren beeinträchtigt wird, die während seines Betriebs beschädigt wurden?
Oder gibt es etwas, das ich nicht in Betracht ziehe, wie vielleicht eine Designbeschränkung?
Bis Ende 2002 hatten SSDs gerade einmal eine Kapazität von ~80 GB erreicht. Natürlich wird JWST kein Produkt nehmen, das noch nie in Unternehmen eingesetzt wurde, und es mit gekreuzten Daumen in eine 2-Milliarden -Dollar -Plattform stecken, in der Hoffnung, dass der Anbieter wirklich gute Arbeit geleistet hat. Die oben erwähnte Spitzenklasse gilt für terrestrische Laufwerke der Verbraucherklasse. Sobald wir die Strahlungshärtung für die Weltraumnutzung, die bestehende Produktgeschichte für Vertrauen und die zusätzliche Redundanz berücksichtigen, die Missionsdesigner gewählt haben, um ihr über 2 Milliarden Dollar teures Spielzeug für eine Lebensdauer von 5 bis 10 Jahren abzusichern, sehen 68 GB ziemlich vernünftig aus.
Ja, es dauerte 10 Jahre, um von MB zu GB zu gelangen, und weitere 10, um von GB zu TB zu gelangen. So hatten wir 2010 bereits TB-Standalone-Laufwerke (keine Arrays) in einem COTS 3,5-Zoll-SATA-Formfaktor. Aber 2007 hatte das JWST bereits die meisten Kernprüfungen bestanden, sodass die Technologie Jahre zuvor ausgewählt worden sein musste, mit was auch immer war damals verfügbar. Bis 2006 hatte die NASA bereits 1 Milliarde US-Dollar für das Projekt ausgegeben. Der Hauptauftrag wurde 2003 vergeben. Es ist nicht schwer vorstellbar, dass die Datenspeichertechnologie innerhalb von ein oder zwei Jahren nach diesem Zeitpunkt ausgewählt wurde. da sie nur 3 Jahre später bereits eine Milliarde Dollar in der Entwicklung verbrannt hatten.
Wenn wir JWST jetzt neu entwerfen würden, könnten wir so etwas wie den weltraumtauglichen RH3440 mit 440 GB von Mercury wählen . Dies ist Spitzentechnologie, und es sind nicht einmal 1 TB. Beachten Sie auch, dass es eine "primitivere" Single-Level-Cell-NAND-Technologie anstelle von Quad-Level-Cells mit hoher Dichte verwendet. Offensichtlich dient dies der Robustheit und einem Teil dessen, was es weltraumtauglich macht. Aus diesem Grund können Sie Consumer- und Space-Grade-Produkte nicht auf Augenhöhe vergleichen. Natürlich könnten wir ein paar davon in das JWST einbauen und über 1 TB Speicherplatz bekommen, aber ich könnte mir vorstellen, dass die Aufnahme von mehr als einem Dutzend davon die Größen- und Leistungsbeschränkungen verschieben würde. Nehmen wir also an, wir könnten bis zu 6 TB Speicherplatz für JWST 2.0, Ausgabe 2021 erhalten.
Das exponentielle Wachstum der SSD-Dichte folgt einem ungefähren Verhältnis von 1000x pro 10 Jahre. Spulen Sie 10 Jahre bis 2011 zurück, und wir würden erwarten, nur 6 GB an Bord zu bringen, wenn Sie die damals verfügbare Spitzentechnologie für die Raumfahrt verwenden. Gehen Sie 17 Jahre zurück bis 2003-4, und die Tatsache, dass es über 60 GB SSD-Speicher verfügt, sieht tatsächlich ziemlich bemerkenswert aus, wenn man bedenkt, dass wir es auf vielleicht 60 MB (Weltraumklasse!!!) extrapolieren würden. An Bord von JWST befinden sich möglicherweise weit mehr als ein Dutzend diskreter Laufwerke (auf dieser Granularitätsebene können keine Designdetails gefunden werden).
Die eigentliche Frage ist nicht: "Warum gibt es so wenig Speicherplatz?" sondern: "Wie haben sie so viel an Bord bekommen?" Vielleicht durften sie den Speicher später im Designprozess betrügen und auf neuere, aber immer noch ausgereifte Technologie aktualisieren. Die Critical Design Review, die meiner Meinung nach viele Entscheidungen in Stein gemeißelt hat, fand 2010 statt. Wenn sie Fortschritte in 6-7 Jahren erzielen könnten, könnte dies eine 100-fache Verbesserung gegenüber den erwarteten Kapazitäten erklären.
Weltraumhardware ist fast immer ziemlich archaische Technologie. Das Problem ist die lange Vorlaufzeit in Verbindung mit der Notwendigkeit, es für den Flug zu zertifizieren. Es war nicht archaisch, als es entwickelt wurde. Das JWT wurde 2005 neu gestaltet, also schauen Sie sich die Technologie von 2005 an, nicht die Technologie von 2020.
Die anderen Antworten sind gut. Ich möchte hinzufügen, dass Projektpläne normalerweise aufgrund falscher Budgetbeschränkungen nicht genügend Iterationen erwarten. Ein Projektplan ist wie ein Schlachtplan – er überlebt selten den Kontakt mit der Realität. Planen Sie, die ersten (günstigeren, teilweisen) Versionen wegzuwerfen, und Sie haben die Flexibilität, die Technologie basierend auf neuen Informationen zu aktualisieren.
Ein großartiges Beispiel für einen Projektplan mit eingebauter Iteration war die Serie Mercury/Gemini/Apollo – diese Bemühungen wären schrecklich gescheitert, wenn wir geplant hätten, beim ersten Start Stiefel auf die Mondoberfläche zu setzen.
Shuttle ging in die andere Richtung – da Enterprise der einzige Orbiter-Prototyp war, der finanziert wurde, konnten wir dieses System nie zu einem System weiterentwickeln, das wirklich sicher, zuverlässig oder billig war.
In den letzten Jahren haben wir endlich begonnen, neuere Trägerraketen und Satellitenkonstellationen zu sehen, die eher einem iterativen Entwicklungspfad folgen – die Kontraste in Zeitplan, Kosten und Fähigkeiten sind frappierend.
Wenn keine Iteration eingebaut ist, werden frühe Entscheidungen gründlich analysiert und Fehler auf der sicheren Seite gemacht, weil jeder, der diese Entscheidungen trifft, weiß, dass es kaum Möglichkeiten gibt, Hardware zu testen, bis es zu spät ist, sie zu ändern. Die daraus resultierenden Einschränkungen müssen im weiteren Projektverlauf als Zwänge hingenommen werden. Diese intern erzeugten Einschränkungen führen wiederum dazu, dass Projekte Überstunden machen, das Budget überschreiten oder vollständig scheitern.
Es ist bizarr zu glauben, dass, obwohl es in der Wissenschaft nur um Veränderungen auf der Grundlage neuer Informationen geht, „große wissenschaftliche“ Projekte diese Funktion selten in ihre eigenen Pläne und Verträge integrieren können – Partner und Anbieter werden in der Regel beauftragt, einmal vollständige, fertige Produkte zu liefern , vorher vollständig spezifiziert und beim ersten Mal richtig gebaut. Das Universum funktioniert einfach nicht so.
Rückblickend sieht die Technik zwangsläufig primitiv aus. Ein Zitat ist wohl nur eine Legende, soll Bill Gates schon 1981 gesagt haben: „640K sollten genug für jeden sein.“ Und für die Menschen damals war das wahrscheinlich vernünftig.
Beachten Sie, dass 1991
SanDisk liefert sein erstes Solid-State-Speicherlaufwerk oder SSD aus. Die SSD hatte eine Kapazität von 20 MB und wurde für ungefähr 1.000,00 $ verkauft. Es wurde von IBM im ThinkPad-Stiftcomputer verwendet.
Die 1.000 $ werden hier kein Problem sein. Aber 20 MB waren die Bombe. Vor einigen Jahren kaufte ich die kleinsten USB-Sticks auf dem Markt, um einige Dokumente zu verschenken, und sie waren viel größer.
1999 machte BiTMICRO eine Reihe von Einführungen und Ankündigungen zu Flash-basierten SSDs, darunter eine 18-GB-3,5-Zoll-SSD.
Für Leute, die den Satelliten gegen Ende des 20. Jahrhunderts entworfen haben, sahen die 60 GB nach einer Art „Wow, ich wünschte, ich hätte das zu Hause“ Volumen aus.
Da erwartet wird, dass es seine Daten zwischen den Zielen herunterladen kann, benötigt es daher keine großen Mengen an Speicherplatz, und alle Daten, die es ansammelt, werden Zeit zum Herunterladen benötigen, sodass es nicht viel Sinn macht, einen riesigen Puffer aufzubauen.
Russell Borogove
Gabriel Fair
Russell Borogove
Benutzer3528438
Gabriel Fair
Muhen
Austin Hemmelgarn
John Doty
John Doty
Markieren
Markieren
shaunakde
Rsf
JS.
John Doty