Kosten-Nutzen-Analyse einer zukünftigen Regierung, die mit erschwinglichen, leicht verfügbaren Supercomputern für die Massen konfrontiert ist [geschlossen]

Prämisse

Ich stelle mir eine Welt vor, in der Supercomputer verfügbar und für die Massen mäßig erschwinglich sind.

Allein im Jahr 2017 gab es mehrere Cybervorfälle, die staatliche und private Sektoren auf der ganzen Welt Milliarden von Dollar gekostet haben. Es ist klar, dass Cyber-Bedrohungen ein potenzieller Kostenfaktor sind. Jamie Bartlett , ein renommierter Experte für digitale Technologie, äußerte sich kürzlich in einem Forum der Oxford Union zur Rolle der künstlichen Intelligenz. Bartlett argumentierte, dass KI Cyber-"Angreifern" wahrscheinlich mehr helfen würde als den "Verteidigern". Im Grunde wäre es so, als würde man versuchen, Regentropfen zu fangen. Wenn die Welt 1 Milliarde KI-fähige Systeme hat, sind das 1 Milliarde weitere Angriffspunkte. Daher kann ich seine Bedenken verstehen, aber nur bis zu einem gewissen Punkt.

Der zweite Teil meiner Prämisse besteht darin, ein enges historisches Analogon zu verwenden, um potenzielle Vorteile zu analysieren. In den frühen 80er Jahren war die Idee eines „Personal Computers“ praktisch ein Oxymoron – wofür um alles in der Welt würde man ihn verwenden? Zu dieser Zeit hatte nur die wissenschaftliche Elite die Motivation, die technischen Fähigkeiten und das Budget für einen Computer (vergessen Sie nicht, dass es damals riesige, zimmergroße Maschinen waren). Als sich die Technologie durchsetzte, war sie natürlich nicht mehr kostenintensiv und die Massen wurden relativ schnell technisch versiert. Dies hat im Wesentlichen innerhalb weniger Jahrzehnte eine große Nachfrage nach PCs geschaffen.

Einerseits ist es richtig, dass das Risiko für Infrastruktur und Daten durch Störereignisse in der Cybersicherheit eine negative Auswirkung der Dezentralisierung (Zugänglichkeit/Erschwinglichkeit) von Computern ist. Aber andererseits, wenn wir Computer nie dezentralisiert hätten, wären wir nicht im fortgeschrittenen digitalen Zeitalter, in dem wir uns jetzt befinden, und die damit verbundenen wirtschaftlichen Verluste wären unkalkulierbar. Wer sagt also, dass die Massen nicht einen revolutionären Weg finden würden, die Geschäftswelt zu verändern, indem sie erschwingliche Supercomputer annehmen, so wie sie es in den frühen 90er und 2000er Jahren mit PCs taten?

Annahmen

  • Kosten: Supercomputer sind nicht übermäßig kostenintensiv (glaube, die Mittelschicht kann sie sich leisten)
  • Rechenleistung : Diese zukünftigen Supercomputer, die ich mir vorstelle, haben die Größe eines großen Desktop-PCs, aber die Rechenleistung eines kleinen Rechenzentrums
  • Art der Rechenleistung/Architektur: hohe Parallelverarbeitung sowie Single-Task-Verarbeitung

  • allein das Ergebnis der Kosten-Nutzen-Analyse bestimmt die Politik (keine exogenen Faktoren)

  • citaris paribus (angenommen, die Menschen sind in Zukunft genauso gierig, innovativ usw. wie sie es jetzt sind)

*Sie können diesen Annahmen zustimmen oder nicht. Diese Annahmen dienen lediglich dazu, die Frage in einem vernünftigen Rahmen zu halten.

Fragen):

Selbst wenn Supercomputer erschwinglich und für die Massen verfügbar wären, bleibt die Frage der Politik. Wie würde ein rationaler staatlicher Akteur eine Kosten-Nutzen-Analyse der Rechtmäßigkeit des Besitzes eines Supercomputers durchführen? Welche Kipppunkte würden sie suchen? Würden die Tech-Giganten widerstehen? Hätte der staatliche Akteur auf die eine oder andere Weise Eigeninteressen?

Diese Fragen sind alle miteinander verbunden, Sie können sich entweder auf eine bestimmte konzentrieren oder das größere Bild als Ganzes ansprechen.

„Super“-Computer sind weitgehend relativ. Wenn Computer mit so viel Rechenleistung alltäglich würden, dann wahrscheinlich, weil diese Leistung für die meisten Anwendungen benötigt wird, und die neuen Supercomputer würden die Supercomputer von heute aussehen lassen wie … nun ja, alte IBMs .
Reden Sie nur der Vollständigkeit halber von konventionellem Computing? (Das heißt, Computer, wie wir sie heute gewohnt sind, nur schneller; keine Quantencomputer.)
Der Supercomputer des letzten Jahrzehnts ist der Desktop dieses Jahrzehnts und das Mobiltelefon des nächsten Jahrzehnts.
Die Frage ist schlecht definiert: Sie geben keine rechtliche Definition für einen Supercomputer; Um ein Gesetz zum Verbot des Privateigentums zu verabschieden, muss der Gesetzgeber diese zunächst definieren . In den frühen 1980er Jahren waren Computer nicht unbedingt sehr teure zimmergroße Maschinen; Vielleicht möchten Sie den Apple II nachschlagen, der 1977 eingeführt wurde. Ich bin verwirrt über das plötzliche Interesse der Politiker an künstlicher Intelligenz. Wir haben derzeit nicht die geringste Ahnung, wie wir anfangen könnten, über die Entwicklung einer universellen künstlichen Intelligenz nachzudenken.
Habe sie jetzt bekommen. Für ein paar US-Dollar können Sie ein Dual-CPU-Motherboard, 2 16-Kern-I9-CPUs mit 4+ GHz, ein Paar NVidia-GPU-Boards, eine große SSD ...

Antworten (4)

Wir sind schon da. Es gibt Leute, die Supercomputer mit dem Raspberry Pi bauen . Jede Generation von Computern (die weniger als eine Generation von Menschen ist) ändert jede Ebene der Rechenleistung von oben (Rechenzentrum) bis unten (persönlich). Die ersten paar Cray-Computer – die schnellsten der Welt, wenn sie in den 1980er Jahren hergestellt wurden – werden von einem typischen Smartphone leicht geschlagen. Es gibt einige Herausforderungen, aber denken Sie an Bitcoin-Mining und verteilte Projekte wie Folding@Homeund Sie können sehen, wie Berechnungen auf Supercomputer-Ebene "überall" stattfinden. Einschränkungen – Richtlinien und gesetzliche Einschränkungen – gehen nur so weit, wenn die Maschinen da draußen sind. Sie können die eigenständigen Supercomputer der obersten Ebene leicht genug einschränken. Es ist viel schwieriger, die Verwendung von "normalen" 3 GHz zu blockieren. Multi-Core-Prozessoren und es ist noch schwieriger, Leute daran zu hindern, ihre 5-Dollar-Raspberry Pi Zeros zusammenzusuchen, die sie problemlos überall hin schmuggeln können. Der Mainframe/Rechenzentrum/Supercomputer von heute ist der Desktop von morgen und der Taschencomputer von morgen.

Die entscheidende Frage ist die Verschlüsselung. Das, oder wirklich die Entschlüsselung, ist der heilige Gral des Supercomputing. Brute Force kann mit den heutigen preiswerten Computern arbeiten, um zumindest theoretisch die Verschlüsselung von vor relativ wenigen Jahren zu knacken. Wenn es wirklich Quantencomputer braucht, um die aktuelle Verschlüsselung auf hohem Niveau wirklich zu knacken, dann wird ein erschwinglicher Quantencomputer zu dem Gerät, mit dem Regierungen versuchen können, ihn einzuschränken, als wäre er eine Waffe. Aber abgesehen von Quantencomputern ist dies nur ein endloser Wettlauf von Technologie, menschlichen Faktoren (z. B. Phishing-Angriffen) usw., wie er in der gesamten Geschichte der Cybersicherheit und in vielerlei Hinsicht noch viel länger andauert.

Wenn wir die Gegenwart betrachten, sehen wir, wie die Regierungen der Welt versuchen, den Zugang zu Informationen für die Massen von Menschen zu beschränken oder zu kontrollieren. China ist das berüchtigtste Beispiel mit der „Great Firewall of China“, die VPN verbietet und Menschen dazu zwingt, die von der Regierung genehmigten Versionen von Google, Facebook usw. zu verwenden.

Westliche Regierungen mischen sich jedoch auch nicht in die Kontrolle von Informationen ein, zum Beispiel können EU-Vorschriften mit sogenannter „Hassrede“ auf Social-Media-Plattformen (mit sehr fließenden und elastischen Definitionen) leicht missbraucht werden (und tatsächlich gibt es bereits Vorwürfe dafür ). Auch Nichtregierungsakteure können ihre Quasi-Monopole als „Gatekeeper“ nutzen, Twitters „Trust and Safety Council“ verbietet, verbietet oder limitiert Benutzerkonten nach obskuren Regeln, denen oft vorgeworfen wird, die Konten konservativer oder rechter Nutzer zu beschränken. Google hat ähnliche Richtlinien, denen auch vorgeworfen wird, Menschen mit konservativen politischen Ansichten zu „entplattformen“. Facebook wird vorgeworfen, Newsfeeds zu manipulieren, um bestimmte Themen am „Trending“ zu hindern.

Die schnelle Verfügbarkeit von Supercomputern stellt das Gleichgewicht zwischen Einzelpersonen und Regierungen oder Quasi-Monopol-Plattformen mit großen Mengen an Ressourcen wieder her. Gatekeeper haben in der Regel asymmetrische Ressourcenvorteile gegenüber Einzelpersonen. Im 19. und 20. Jahrhundert erforderten Massenmedien wie Zeitungen, Radio, Filme und Fernsehen aufwändige und teure Produktionsanlagen sowie teure Vertriebsketten (oder begrenzte und kontrollierte), um ihre Botschaften zu verbreiten. Nur Personen mit Zugang zu ähnlichen Druckmaschinen, Studios oder Sendern konnten teilnehmen.

Der Prozess begann mit Geräten wie Fotokopierern zusammenzubrechen, die die Erstellung und Verteilung hochwertiger Druckmaterialien zu niedrigen Kosten ermöglichten und Zeitungen von Grund auf herausforderten. Die Einführung des Internets in die Öffentlichkeit in den 1990er Jahren bewirkte dasselbe für alle Medien.

Der groß angelegte Zugang zu Supercomputern (wie die heutigen Nvidia-Maschinen) wird das Gleichgewicht wieder auf den Einzelnen kippen. Die Ergebnisse werden schwer vorherzusagen sein, Regierungen und große Unternehmen können Supercomputer in großen Mengen kaufen und gigantische „Knoten“ von Supercomputing (Supercomputer-Cluster) schaffen, während Einzelpersonen Ad-Hock-Netzwerke von Supercomputern in wechselnden und sich ständig weiterentwickelnden Clustern und Maschen erstellen könnten könnte eine lokale Informationsüberlegenheit bieten und wäre widerstandsfähiger gegen Netzwerkangriffe oder sogar Schäden an der Infrastruktur. Zu manchen Zeitpunkten könnten die großen Akteure Vorteile haben (z. B. China), bis die Benutzergemeinschaft einen Workaround findet, um Organisationen in Gatekeeping-Positionen zu durchbrechen oder zu umgehen.

Der durch Cyberangriffe verursachte Schaden ist der Verlust von Daten und der Verlust digitaler Ressourcen und der Verlust des realen Nutzens, der sich aus diesen digitalen Ressourcen ergibt.

Aus der Perspektive des einzelnen Bürgers bin ich mir nicht sicher, ob es einen Punkt gibt, an dem es zu einer rationalen Entscheidung wird, die Nutzung digitaler Ressourcen zu verweigern, um den Verlust eben dieser digitalen Ressourcen zu vermeiden. Es wäre, als würde man sein Haus niederbrennen, um nicht eingebrochen zu werden.

Aus der Sicht des Staates kann es sein, dass der Machtgewinn, den der Staat indirekt dadurch erhält, dass seine Bürger über Rechenressourcen verfügen, durch den Machtverlust des Staates an seine Bürger mehr als ausgeglichen wird.

(Eine kleine Spitzfindigkeit: In den frühen 80er Jahren war die Idee eines "Personal Computers" kein Widerspruch in sich. Der Commodore PET, Apple II und TRS-80 wurden alle 1977 eingeführt.)

Ich bin mir nicht sicher, ob ein rationaler staatlicher Akteur in der Lage wäre, eine genaue Kosten-Nutzen-Analyse durchzuführen, genausowenig wie die Regierungen der Welt vorhersagen konnten, wie der Personal Computer und dann das Internet die Welt veränderten.

Aber vorausgesetzt, sie taten es, worauf sollten sie achten? - Sicherheit: Informationssicherheit hat drei Achsen – Verfügbarkeit, Datenschutz und Genauigkeit; Es gibt andere Datenschutztechniken als die Verschlüsselung, die dieses Spektrum abdecken. Ein Computer muss keine Daten ausgeben, nur weil jemand ein Passwort angegeben hat. Es kann die Beantwortung von Fragen verweigern, wenn nicht eine Vielzahl von Authentifizierungsherausforderungen (Faktoren) erfüllt sind. Daten im Ruhezustand oder während der Übertragung können mithilfe von Algorithmen geschützt werden, die sich auf die Geheimhaltung des Algorithmus verlassen und einschränken, wer am Austausch teilnehmen darf.

Die aktuelle Verschlüsselungstechnologie führt nur die leistungsstarke Verschlüsselung des Schlüsselteils der Nachricht durch. Der Großteil der Daten wird mit dem einfacheren Schlüssel gespeichert, der besser geschützt ist. Der Grund, warum wir dies tun, ist, dass es rechenintensiv wäre, es anders zu tun. In einer Welt, in der mehr Rechenleistung verfügbar ist, könnte jedoch jedes Bit geschützt werden. Natürlich können wir unseren Schlüsseln auch Bits hinzufügen, wodurch das Brute-Force noch mehr Zeit in Anspruch nimmt.

Ein guter Sicherheitsanalyst könnte hier gründlicher arbeiten, aber es gibt viele Möglichkeiten. Ich würde nicht davon ausgehen, dass die Computersicherheit hoffnungslos ist.

Kontrast gegen mögliches Wachstum. Auch wenn sie ungeschützt ist, eröffnet zusätzliche Rechenleistung riesige neue Horizonte in der Chemie (voraussagende Modellierung von Reaktionen und die Möglichkeit, nach Reaktionen zu suchen, die Materialien mit gewünschten Eigenschaften ergeben), dem Ingenieurwesen (realistischere Umgebungen zum Testen von Fahrzeugen und Strukturen in der Simulation ohne die Kosten dafür). Prototyping), Kunst (computergenerierte Musik (leider), Darsteller, vielleicht sogar ganze Produkte), Medizin (bessere Fähigkeit, Gesundheits- und Drogeneffekte zu modellieren), Genetik und Gentechnik mit Dingen wie CRISPR, Staatsbürgerkunde (KI-gestützte soziale Netzwerke), Stadtplanung und Finanzen, um nur die ersten zu nennen, die mir einfielen.

Ich denke, ein rationaler Staat würde erkennen, dass er weder die Kosten noch den Nutzen effektiv bewerten kann, und sich einfach an sein Leitprinzip halten – sei es Hands-off oder Mikromanagement.

Apropos Tech-Unternehmen: Sie positionieren sich derzeit wie ABC, CBS und NBC im Radiozeitalter als Gatekeeper der Technologie. Sie werden versuchen, dass die Regierung Regeln erlässt, die ihre dominierende Rolle bewahren. Abhängig von ihrem diesbezüglichen Erfolg wird sich das Innovationszentrum in die geografische Region verlagern, die den meisten Köpfen die niedrigste Eintrittsbarriere bietet.