Die Neuerfindung des Computers, der nicht an Altlasten gebunden ist

Setting: postapokalyptisches Setting, aber bereits im Umbau. Ein kleiner (ein paar Millionen), sehr gut ausgebildeter.

Vermögenswerte:

- Starke, technokratische, halbautoritäre Zentralregierung, die das Problem der Herkunft von Computerchips genauso behandelt wie die US-Regierung den Besitz der neuesten Waffen behandelt.

-Zeit ;) (ja, kein Problem, langsame Recherchen auf eine Weise durchzuführen, die jedes zeitgenössische Unternehmen vom Markt verdrängen würde)

-Industriebasis - teilweise umgebaut,

-Der Markt ist etwas klein, aber es gibt kein Problem bei der Organisation von PPP durch die Regierung, bei der die Regierung die F&E-Kosten übernehmen würde, sofern die Chipsätze billig verkauft werden

Aufbewahrte Daten:

- Theoretisch sollten alle notwendigen Blaupausen und Quellcodes aufbewahrt werden, in der Praxis stellt sich heraus, dass gespeicherte Daten unvollkommen oder schwer zu implementieren sind (wie Blaupausen für den Prozessor zu haben und schreckliche Probleme zu haben, die erforderliche Genauigkeit zu erreichen, und Probleme bei der Produktion rein genug Materialien)

- Es gibt immer noch einige Ingenieure von vor der Apokalypse, ganz zu schweigen davon, dass es kein Problem gibt, neue Studenten zu finden

- es gibt noch ein paar letzte elektronische Spielereien (nicht nur das Nokia 3310 ;) ) um ganz genau zu wissen, was machbar ist

Wie würde ein Computer aussehen, wenn wir nicht an Altlasten gebunden wären, sondern ihn von Grund auf neu hätten entwerfen können? Gleichzeitig etwas eingeschränkt durch lokale Bedingungen, die hier und da Abstriche erfordern, ganz zu schweigen von der Anpassung an lokale politische Bedingungen

1) Tastatur - Die ursprüngliche Tastatur war eigentlich etwas unpraktisch, also kein QWERTZ mehr?

2) Paralleles Rechnen – die Technologie als solche ist theoretisch brillant, energieeffizient usw. … nur ist es ein Albtraum zu programmieren und würde es erfordern, die ganze Idee vieler Programme zu ändern. Außerdem wäre es unter solch eingeschränkten Bedingungen einfacher, nur einen Kern zu haben und ihn manchmal in Dutzende für Geräte zu stecken, die mehr Rechenleistung benötigen?

3) Weitere Integration von Chipsatz, vermutlich CPU und GPU kombiniert?

4) Internetverbindung an Stromanschluss anschließen, um ein Kabel zu vermeiden (oder wäre es eine ernsthafte Quelle von Interferenzen?)?

4) Weitere Standardisierung von Kabeln (da es früher getrennte Maus- und Tastaturbuchsen gab) keine Ahnung - die gleiche Buchse für Display und für Netzverbindung?

5) Mehr Cloud-Computing, es ermöglicht eine effizientere Nutzung des Spitzenbedarfs an Rechenleistung (während es der Regierung versehentlich mehr Kontrolle über das gesamte System gibt)?

6) Ersetzen Sie geistiges Eigentum größtenteils durch Auszeichnungen für die Schaffung öffentlicher Güter mit Open Source, um weiteres Basteln zu ermöglichen (gibt der Regierung versehentlich auch zusätzliche Macht über das, was entwickelt wird)?

7) Die Regierung ist so nett, dass sie allen Bürgern ihre eigenen Konten auf der sozialen Website der neuen „Faceborg“-Version, Bankkonto, E-Mail, E-Commerce-Plattform, E-Signatur, Suchmaschine, kostenlosem WiFi-Äquivalent usw. zur Verfügung stellt (alles vorhanden wie öffentliches Gut behandelt)?

8) Alles unter einem Linux-basierten System, da die Wahrscheinlichkeit hoch ist, dass der Quellcode gesichert wird.

(Welche zusätzlichen Funktionen sollten enthalten sein? Oder vielleicht einige als unrealistisch entfernt?)

Angesichts der begrenzten Ressourcen und des Mangels an Kapitalismus wird es von jedem Modell eine geben. Sie würden nicht drei separat entwickelte Programme bekommen, die ungefähr dasselbe tun. Jeder aktuelle Code, den sie verwenden, wäre unser Open-Source-Code, wie Sie spekulieren, aber erwarten Sie, dass vieles neu oder stark modifiziert ist.
Der Link oben in Ihrer Frage ist defekt.
"Internetverbindung in Stromverbindung stecken, um ein Kabel zu vermeiden" Bekannt als Powerline-Kommunikation oder PLC. Ist oft auf ziemlich niedrige Bitraten beschränkt, da es RFI-Bedenken gibt, ungeschirmte elektrische Leitungen in Sendeantennen umzuwandeln, was die Verwendung sehr niedriger Frequenzen erzwingt (obwohl interne Geräte höhere Frequenzen verwenden und respektable Datenraten erreichen können).
"Tastatur - die ursprüngliche Tastatur war eigentlich etwas unpraktisch, also kein QWERTZ mehr?" Diese Unwahrheit hat mich immer gestört. QWERTZ wurde für Morsecode-Transkriptoren entwickelt, die so schnell sein mussten wie die Codes, die sie transkribierten . Sie zu verlangsamen, war keine Option. QWERTZ ist eigentlich so konzipiert, dass es unglaublich effizient ist ... wenn Sie Morsecode transkribieren. Als Nebeneffekt ist es auch für alle anderen sehr effizient. Es stellt sich tatsächlich heraus, dass die Tastatur der Dvorak ebenbürtig ist, von der viele behaupten, dass sie die schnellste ist.
@Azuaron Es gibt viele Ursprungsgeschichten über QWERTZ und bis heute sind wir uns nur sicher, dass das beste Layout das ist, an das Sie gewöhnt sind.
@AmiralPatate „Die Entwicklung von [QWERTY] als Reaktion auf mechanische Fehler wurde von Forschern der Universität Kyoto in Frage gestellt … In einer Veröffentlichung aus dem Jahr 2011 verfolgten [sie] die Entwicklung der Schreibmaschinentastatur … das QWERTZ-System entstand als Ergebnis dessen, wie Die ersten Schreibmaschinen wurden verwendet. Zu den frühen Anwendern ... gehörten Telegraphenbetreiber, die Nachrichten schnell transkribieren mussten. [Sie] fanden die alphabetische Anordnung verwirrend und ineffizient für die Übersetzung des Morsecodes. Smithsonian
@AmiralPatate Auf jeden Fall ist das beste das, an das Sie gewöhnt sind, aber QWERTZ war absolut nicht "entworfen, um tatsächlich etwas unbequem zu sein".
@Azuaron Dieses Papier weist darauf hin, dass Patentgesetze ein Faktor dafür sind, M in die Nähe von N zu verschieben und X und C auszutauschen. Remington kaufte Sholes 'Design als QWE.TY und sie tauschten später R mit Punkt aus. Neben dem Morsecode spielten definitiv noch andere Faktoren eine Rolle. Obwohl ich dem Endergebnis zustimme, war es nicht so konzipiert, dass es unpraktisch ist.
Antwort auf die Frage: Es ist ein Münzwurf ... alles kann passieren, aber erwarten Sie nicht, dass es allzu sehr von dem abweicht, was wir heute haben. Hier ist jedoch eine sehr amüsante Version … die grimdunkle Zukunft von Warhammer 40.000. crafty-games.com/forum/index.php?topic=6416.0 :D
Die ganze Prämisse geht davon aus, dass die Art und Weise, wie wir es gemacht haben, bei weitem nicht die effizienteste/einfachste Art ist, was für mich eine Art Sprung ist.
CPU und GPU würden niemals in eine Sache geschoben werden, die gesamte Prämisse von jedem ist zu unterschiedlich; CPUs haben einige sehr robuste Pipelines, um komplizierte Befehlssätze durchzuschieben, wobei jeder vom letzten abhängen kann (sehr gute sequentielle Verarbeitung). GPUs haben Hunderte kleinerer Pipelines, die nicht von den anderen abhängen und die komplexen Operationen, die eine CPU ausführen kann, nicht ausführen können (fantastische Parallelverarbeitung). Wissen Sie, wie wir Computer mit Hunderten von CPU-Pipelines nennen? Supercomputer. Für alle Zwecke ist ein Supercomputer eine GPU, aber überladen.

Antworten (4)

Meine Vermutung ist größtenteils enttäuschend: Es würde auf die 8086- Zeile zurückgehen .

Es ist gut dokumentiert. Es klappt. Es erfordert von allen "echten" Prozessoren die geringste Fertigungspräzision. Es ist einfach so einfach herzustellen, wie es nur geht.

Nun zu deinen Punkten:

  1. Tastatur - Wer weiß? Vielleicht würde ein anderes System für eine bestimmte Sprache besser funktionieren, aber insgesamt ist es nicht schlecht. Außerdem sagen Sie, Sie hätten Vorkriegswissenschaftler. Sie würden bevorzugen, was sie wissen.

  2. Paralleles Rechnen - Nicht wirklich. Es ist ein Albtraum, es gut zu machen. Und für eine Gesellschaft, die überhaupt keine Computer hat, wird er auch nicht benötigt. Lange Zeit wird es einfacher und schneller sein, einen einzelnen Chip schneller zu machen, als zwei parallel arbeiten zu lassen.

  3. GPU - welche GPU? Die Regierung braucht keine GPU. Lange Zeit reicht eine große Buchhaltungsmaschine aus. Textausgabe und einige Diagramme reichen aus. Wenn es also jemals erscheinen wird, wird es eine Ergänzung sein. So wie es war.

  4. Internetverbindung in Stromverbindung stecken - Hölle nein! Dieser ist auch heute noch ein Albtraum. Und natürlich möchten Sie, dass Regierungscomputer öffentlichen Strom nutzen, aber das Netzwerk isoliert halten, nicht wahr? Kabel sind billig. Forschungsaufwand nicht. Auch heute noch nicht - und Unternehmen versuchen es.

  5. Mehr Cloud Computing – vielleicht. Natürlich gibt es keine Wolke. Es sind nur die Computer von jemand anderem.

  6. Geistiges Eigentum meist durch Auszeichnungen ersetzen - in vielen kommunistischen Ländern erprobt. sichere Weg, Menschen dazu zu bringen, woanders hinzugehen und dort zu arbeiten, wo sie Früchte ihrer Arbeit ernten können. Wie Handwerk. Oder Landwirtschaft. Oder Wilderei. Es sei denn, Sie möchten alle Formen von Eigentum entfernen? Natürlich könnten sie nur für Lohn arbeiten, aber wenn sie monatlich oder stündlich bezahlt werden, warum sollten sie dann konkurrieren? Vor allem, dass nur die Regierung sie einstellen würde? (Ohne geistiges Eigentum würde kein Unternehmen jemals für seine Arbeit bezahlen wollen, da Unternehmen die Effekte nicht behalten könnten)

  7. Regierung, die das Geld und das soziale Leben der Menschen verwaltet? Cool, Sie wollen also kommunistisch werden und Eigentum im wahrsten Sinne des Wortes beseitigen!

  8. Alles unter einem Linux-basierten System - möglich. Natürlich nur, wenn Punkte über radikale Architekturänderungen nicht funktionieren. Für eine neue Architektur benötigen Sie sowieso ein neues Betriebssystem.

Ehrlich gesagt sind GPUs wirklich gut bei massiv parallelen Operationen. Wenn Ihre Regierung an irgendeiner Art von Kryptographie oder Forschung interessiert ist, wird sie etwas haben wollen, das einer GPU-Basisarchitektur folgt. Aus diesem Grund könnte es die Standardarchitektur werden, und der Hauptgrund dafür, dass dies heute nicht getan wird, ist, dass es zu viel veraltete Hardware und Software gibt. Von Grund auf neu zu beginnen bedeutet, dass Sie Dinge so entwerfen können, dass sie von Grund auf mit Multi-Tausend-Kern-Prozessoren funktionieren.
@UIDAlexD Nur wenn es keinen Druck gibt, etwas schnell zum Laufen zu bringen. Und GPUs sind gut, das sind sie sicher. Die meisten Datenbanksysteme verwenden sie jedoch nicht. Regierungen basieren auf Datenbanken, also ... Ich würde wirklich gerne glauben, dass Parallelen passieren würden, aber ich glaube, dass der Zeitdruck und die Notwendigkeit, einige Erfolge vorzuweisen, dies verhindern würden. Vor allem , wenn es keine IP und keine Zahlungen gibt, sondern nur Preise. Sie müssen jeden Monat gewinnen, um sie oft genug zum Essen zu gewinnen ... Genug, um 8086-Pläne wiederherzustellen und schrittweise Upgrades durchzuführen, nicht genug, um ganz neu zu denken.
Oh, ich weiß über die Regierung und ihre Datenbanken Bescheid – ich arbeite für sie. Unsere Datenbankserver verwenden keine GPUs, weil sie nur zahlenverarbeitende SQL-Maschinen ohne Unterstützung dafür sind. Ich bin mir ziemlich sicher, dass Sie große Vorteile aus einem massiv parallelen Modell ziehen könnten, wenn Sie Altlasten abschaffen und eine von Grund auf neue DB-Architektur aufbauen würden. Alles in allem muss ich Ihrem Punkt bezüglich der Preise nur widerwillig zustimmen. Wenn sie keine Art Advanced Computing Initiative haben, ist das Abstauben alter Dokumente der beste Weg, um sofortige Ergebnisse zu erzielen.
@UIDAlexD korrigieren Sie mich, wenn ich falsch liege, aber ist der Laufwerksdurchsatz nicht ein Engpass? Nicht die CPU? Ich habe immer geglaubt, dass für die Geschwindigkeit, mit der Daten vom Laufwerk empfangen werden können, die CPU-Verarbeitungsgeschwindigkeit normalerweise mehr als ausreichend ist. Auf Maschinen, die ich sehen kann, geht die CPU während DB-Operationen sowieso selten in die Nähe von 100%.
Auf Heimcomputern ja. Die Datenbanken, an denen ich arbeite, laufen auf Drive-Arrays, sodass die mechanischen Einschränkungen eines einzelnen Laufwerks kein so großes Problem darstellen. Auch wenn eine Datenbank selten stark belastet wird, brauchen die Server, die die Logik für sie betreiben (wie die, die die Geschäftstransaktionen für Steam/Amazon abwickeln, anstatt nur Produktdaten zu speichern), wirklich die Geschwindigkeit, um Massen- oder komplizierte Anfragen zu bearbeiten.
Allerdings brauchen DBs manchmal Pferdestärken, insbesondere für Mergers/Backups/Rebuilds/Ect. Wir führen diese Vorgänge normalerweise um 2-3 Uhr morgens aus, da dies bei einer großen Datenbank bis zu 5 Stunden dauern kann. Das bedeutet, dass wir frühestens morgen früh eine Anfrage dafür haben können. Wenn Sie die Rechenleistung hätten, dies in 10 Minuten zu erledigen, wäre das ein großer Segen für die Produktivität.
Nicht nur bei den Heimwerkern. Auch auf kleinen Servern. Aber ich verstehe deinen Punkt.
Und ich sehe deine. In 9 von 10 Paralleluniversen gehen sie den schnellen und einfachen Weg „Alte Hardware neu aufbauen, für die wir Dokumentation haben“.

Folgendes wären meine fundierten Vermutungen:

1- Standardisierung: Nicht nur wenige Ports sind Standard, es wird von vorne begonnen, jedes System könnte standardisiert und gezwungen werden, Ersatz zu haben. Im Wesentlichen Schnittstellen vor Geräten erstellen. Dies würde Software beinhalten. Als Linux-Benutzer kann ich meine Desktop-Umgebung ändern, ohne den Rest des Betriebssystems zu ändern. Dies könnte auf eine neue Ebene verschoben werden. Treiber könnten standardisiert werden, sodass alle Betriebssysteme von einem einzigen Treibersatz profitieren könnten.

2- Asymmetrische Verarbeitung. Da alle Systeme von Grund auf neu erstellt werden müssen, könnte man eine Computerarchitektur mit einer Hochgeschwindigkeits-CPU, einer Mittelklasse-CPU nur für das Betriebssystem und Worker-Threads zur Beschleunigung der Parallelverarbeitung erstellen.

3- Bessere Netzwerkprotokolle. Das TCP/IP-Protokoll wurde nicht für die heutige Zeit entwickelt, es wurde für kleinere Netzwerke ohne Sicherheitsprobleme entwickelt. Ein System mit eingebauter Sicherheit wird viel helfen. Außerdem würde die 64-Bit-Adressierung es ermöglichen, allem auf der Erde eine eindeutige Adresse zuzuweisen, wodurch die Notwendigkeit von NAT-Einheiten entfällt.

4- Staatsbürgerschafts- und Internetkonten könnten kombiniert werden. Mit genügend Sicherheitsmaßnahmen wird jeder ein Bürger im Internet sein, keine anonymen Personen. Dies würde wahrscheinlich Trolle reduzieren und die Gesamtqualität von Online-Interaktionen verbessern.

5- Wenn die Welt von Grund auf neu aufgebaut wird, wird die Internetinfrastruktur eine hohe Priorität haben, damit jeder sehr schnelles Internet bekommen könnte und der Bedarf an lokalen Festplatten auf Software minimiert würde. Somit würden Daten mit Backups online gespeichert.

Verlieren Sie aus Ihrer Liste die CPU-GPU-Kombination. Es wurde versucht, während es für die Arbeit in Ordnung ist, wird es niemals für Spiele funktionieren.

Wenn Sie die Möglichkeit haben, Computer von Grund auf neu aufzubauen, Ihre Mitarbeiter aber über aktuelles Wissen verfügen, haben Sie eine großartige Gelegenheit.

Viele der aufregendsten Ideen für fortschrittliche Computerkonzepte wurden einfach nie kommerziell vermarktet und werden es höchstwahrscheinlich nie werden.

Zum Beispiel Memristoren . Memristor-basierte Computer haben das Potenzial, die Computerindustrie grundlegend zu verändern. Sie könnten anstelle von Transistoren und RAM verwendet werden, wodurch Computer auf völlig neue Weise arbeiten können.

In der heutigen realen Welt existieren sie nur in Forschungslabors und ihre Einführung in den Mainstream scheint in absehbarer Zeit immer unwahrscheinlicher zu werden, hauptsächlich aufgrund der Tatsache, dass sie so anders sind, dass es schwer vorstellbar ist, wie sie in irgendeinem sein würden Weg kompatibel mit modernen Betriebssystemen.

Sicher, sie könnten als neue Form der nichtflüchtigen Speicherung Verwendung finden. Diese Art der Verwendung wäre nicht die Art von Revolution, zu der sie fähig sind, aber es ist so ziemlich das Beste, auf das wir hoffen können, ohne das Innere unserer Computergeräte von Grund auf neu zu gestalten und ein ganz neues Betriebssystem dafür zu schreiben.

Aber in der postapokalyptischen Welt, die Sie beschreiben, haben Ihre Techniker genau die Aufgabe, genau das zu tun, also wäre es durchaus möglich, Technologien wie Memristoren und andere Technologien einzuführen, die derzeit auf das Labor beschränkt sind. Computer könnten ganz anders aussehen und funktionieren.

Was könnten Memristoren also tun? Stellen Sie sich einen Computer vor, der seinen Speicher nicht verliert, wenn Sie ihn ausschalten. Computer wären „instant-on“; Kein Warten mehr auf das Hochfahren des Betriebssystems; kein 'Ruhezustand' mehr. Öffnen Sie einfach den Deckel und es ist bereit für Sie. Es kommt sogar noch besser: Sie müssten die Stromkreise überhaupt nur dann mit Strom versorgen, wenn Sie tatsächlich etwas tun möchten. Mit einem richtig gestalteten Betriebssystem wäre der Stromverbrauch viel geringer und würde an Null grenzen, wenn Sie nur auf einen statischen Bildschirm schauen, anstatt zu interagieren. Ein passives Bildschirmlesegerät wie ein Kindle oder ein Fotorahmen könnte jahrelang mit einer winzigen Batterie oder sogar nur mit Solarenergie betrieben werden.

Es gibt eine Reihe anderer grundlegender konzeptioneller Veränderungen, die Memristoren einführen könnten, aber ich überlasse es Ihnen, sich selbst ausführlicher darüber zu informieren – es ist einfach zu googeln, und es gibt viel mehr, als ich hier schreiben könnte.

Aber Memristoren sind nur eines der Konzepte, die derzeit im Labor herumschwirren. Wenn Ihre Techniker in der Lage wären, aus den Besten auszuwählen, ohne sich Gedanken über die Aufrechterhaltung der Kompatibilität mit vorhandener Hardware und Software machen zu müssen, dann sind ihren Möglichkeiten wirklich keine Grenzen gesetzt.

Die größte Herausforderung für Ihre unerschrockenen Erfinder besteht darin, die Fertigungskapazitäten wieder aufzubauen, die es ihnen ermöglichen, ihre Hightech-Hardware tatsächlich herzustellen. Sie müssen wahrscheinlich von einer ziemlich niedrigen Basis ausgehen; Äquivalent der Skala der 1960er oder 1970er Jahre und arbeiten sich von dort aus nach oben. Das bedeutet jedoch nicht, dass sie nicht all diese netten neuen Konzepte einführen können.

Es ist nicht so einfach, Computer bestehen aus vielen Komponenten:

Software

Designsoftware ist nicht so einfach (ich bin Programmierer), unsere Computer haben sich weiterentwickelt und damit auch die Anforderungen der Benutzer. Wenn sich die Anforderungen ändern, muss sich die Software weiterentwickeln, aber normalerweise ist eine vollständige Neufassung bei weitem nicht die optimale Lösung .

Aber es gilt auch das Gegenteil, wenn Sie bei Null anfangen müssen, könnten Sie einen besseren Job machen als Leute, die durch alte Anforderungen eingeschränkt sind (Sie können die Anwendung nicht einfach für Ihre Benutzerbasis kaputt machen).

Deprecation als Geschäftsmodell: Software wird von vielen Anbietern als veraltet markiert und das ist ein Geschäftsmodell, um Sie zum Kauf einer neuen Betriebssystemversion zu zwingen. Wenn Sie nicht möchten, dass Computer an Legacy-Probleme gebunden sind, müssen Sie Computer nicht als Unternehmen haben (z. B. sollte jede Software institutionalisiert werden).

Wenn Sie ein neues Betriebssystem veröffentlichen, zwingen Sie Hardwareanbieter automatisch dazu, (die meisten) Treiber zu aktualisieren (wenn es sich übrigens um Treiber für ein Telefon handelt, auf dem ein anderes Betriebssystem ausgeführt wird, treffen Sie auch die Konkurrenz hart, es überrascht mich, dass das Kartellrecht nichts unternommen hat dafür meh) und Softwarepakete, die modernste Funktionen Ihres alten Betriebssystems verwendet haben, müssen jetzt aktualisiert werden, da sich (übrigens) die Systembibliotheken/API geringfügig geändert haben.

Wenn wir alles von Grund auf neu erstellen müssen, wird es wahrscheinlich nur 1 Betriebssystem geben und das muss Unix-basiert sein , das wird ein für alle Mal alle Kompatibilitätsprobleme beseitigen usw. Sie erstellen 1 Kernel und entwerfen dann, was die Hauptkomponenten sein sollten kann in den Kernel gesteckt werden und diese Komponenten zum Standard machen (nicht so einfach, wenn ein Standard wichtige Dinge vermisst, muss er aktualisiert werden, meistens müssen Sie auch einige Funktionen verwerfen, weil es die Codegröße aufbläht oder es einfach unmöglich macht weitere nützliche Funktionen hinzufügen).

Hardware

Jedes Mal, wenn AMD oder Intel einen neuen Befehlssatz erfanden (wie AVX, SSE usw.), musste die andere Industrie, wenn dieser erfolgreich war, diesen Befehlssatz auch in ihre CPU aufnehmen und gleichzeitig ihre eigenen Befehlssätze nicht beschädigen, all das führte dazu, dass Prozessoren viel mehr Schaltkreise als benötigt hatten.

Andere Architekturen wie MIPS-Prozessoren hatten andere Probleme (MIPS wurde mit anderen Zielen entwickelt, daher mussten später neue Befehlssätze hinzugefügt werden).

Zu diesem Zeitpunkt scheint der Befehlssatz des Prozessors ausreichend "stabil" geworden zu sein (es sei denn, es wird einen weiteren Boom in der Hybridverarbeitung geben). Wenn wir also heute wieder anfangen, einen Prozessor mit einem einzigartigen und universellen Befehlssatz von Grund auf neu zu entwerfen, wird er wahrscheinlich billiger und schneller als alles, was es heute gibt, aber das ist erst nach fast 50 Jahren Evolution möglich (und wir wissen nicht, ob diese Evolution wirklich aufhören wird). Beachten Sie auch, dass es mindestens 20 Jahre dauert, um die Lücke mit modernen Prozessoren zu füllen (moderne Prozessoren sind zwar aufgebläht, haben aber sehr clevere Tricks erfunden, um das Aufblähen zu umgehen), um die aktuellen Verarbeitungsgeschwindigkeiten zu erreichen.

Computers

Mit nur 1 Betriebssystem und 1 universellem Befehlssatz könnten Computer wirklich modular werden, auch da ich annehme, dass alle Technologien normiert sind, würde ich auch wetten, dass es keine Hardware-Schwachstellen mehr geben wird (wie die, die es ermöglicht, in das BIOS von x86-Prozessoren zu schreiben). Daher sollte Software viel sicherer und widerstandsfähiger gegen Malware sein. Schwachstellen und Malware sind ein Geschäft für sich.

In einer Welt, die neu gestartet werden muss, hoffe ich, dass Computer etwas einfacher zu montieren und anzupassen sind (so dass Sie einfach Komponenten einstecken / ausstecken und diese problemlos ersetzen können, indem Sie möglicherweise SD-Karten wie Steckplätze verwenden).

Auch um einen weltweiten Krieg zu verhindern, sollte jegliche elektronische Ökonomie verboten werden (keine Online-Banken, am besten keine Banken, keine Aktien, keine Geldbörsen). Spekulation fügt der Welt keinen wirklichen Wert hinzu, es ist nur Geldtransfer, nutzlos in einer Welt, die neu gestartet werden muss.