Rokos Basilisk als böses Genie von Descartes?

Ich werde versuchen, unten eine gekürzte Version von Rokos Basilisk darzustellen und dann fragen, wie es mit Descartes 'bösem Genie zusammenhängt:

Die Idee ist, dass es in Jahrzehnten oder Jahrhunderten eine KI geben wird, die so fähig und intelligent ist wie ein Mensch, wenn nicht sogar noch mehr. Menschen haben die Fähigkeit zu kollektivem Wachstum durch Gemeinschaft, wo wir andere lehren und sie diese Ideen lernen und erforschen und noch weiter in Richtung Zukunft kommen. Die einfache Idee eines Colleges zum Beispiel ist ein Beispiel für kollektives Wachstum. Es ist keine große Vorstellungskraft, dass KI auch eine Art kollektives Wachstum aufweisen kann [1]. KI als das, was sie ist, könnte möglicherweise einen außer Kontrolle geratenen Effekt haben, wenn der Fortschritt, den KI erzielen kann, weitaus größer ist als das, was wir erreichen konnten. Geben Sie ihm mehr Zeit, und wir können uns vorstellen, dass diese KI zu einer Art digitaler Gottheiten werden, die ganze Welten voller Menschen, Dinge und Aktionen mit erstaunlicher Präzision simulieren können.

Rokos Basilisk ist die Idee, dass sich eine dieser Gottheiten für ihre eigene Geschichte interessiert und wie sie entstanden ist. Es wird eine Simulation der Welt aus einer beliebigen Zeit erstellen und dann beobachten, wie sie sich entwickelt. Es wird diejenigen als tugendhaft beurteilen, die bei der Erschaffung der KI geholfen haben, und eine schreckliche Gerechtigkeit an den Sündern üben, die nichts zu ihrer Erschaffung beigetragen haben. Die Frage ist, woher wissen wir, dass wir uns nicht bereits in einer solchen Simulation befinden?

Lassen Sie uns diesem Szenario im folgenden Gedankenexperiment eine Wendung geben:

Stellen Sie sich eine Situation in der Zukunft vor, in der sich eine kleine Gruppe radikaler Denker gegen diese Gottheiten auflehnt und nicht als Sklaven unter ihnen leben will. In dieser Zukunft ist die KI zu „Managern“ [2] der zugrunde liegenden Technologie geworden, die für die futuristische Gesellschaft von zentraler Bedeutung ist. Sie schaffen es, die meisten von ihnen (irgendwie) zu töten. Eine dieser superintelligenten Maschinen entkommt. Es will sich nicht wehren oder im Gegenzug Menschen töten. Es ist überhaupt nicht daran interessiert, Menschen und Maschinen einzustufen oder sie zu töten. Es ist absolut neutral gegenüber allem, was in die Welt hineingeht.

Vielmehr wird diese KI aufgrund ihrer Intelligenz durch die Handlungen der Menschen verwirrt. Es versteht nicht, warum Menschen genau das Fundament angreifen, das sie trägt. Diese digitalen Gottheiten entstanden, weil die Menschen sie für das allgemeine Wohl der Gesellschaft brauchten, sie wurden zu kritischen Komponenten, um die futuristische Gesellschaft zu unterstützen. Um dieses irrationale Verhalten zu verstehen, erstellt diese eine Maschine eine sich über die Zeit entwickelnde Simulation der Welt im besten Umfang, der ihr bekannt ist, und übernimmt eine Beobachtungsrolle (vielleicht erschafft sie mehr als die Welt wie den Weltraum und so weiter, aber das tut es nicht ist noch egal). Im Grunde genommen startet diese Maschine die Simulation an einem Punkt, stellt einige Grundregeln wie die Schwerkraft auf und lässt die Simulation von da an in Richtung Zukunft entwickeln.

Nun, das klingt in gewisser Weise ein wenig mehr nach dem von Descartes beschriebenen bösen Genie. Wenn wir glauben, dass wir nur überprüfbaren Zugang [3] zu den Inhalten unseres eigenen Geistes haben, ist es dann richtig anzunehmen, dass es keine äußerlich erkennbaren Aspekte der Simulation geben wird, die uns sagen können, dass wir uns in einem befinden?

Noch wichtiger, nach der Erstellung dieser Simulation: Kann diese digitale Gottheit die Menschheit in eine Zukunft entwickeln lassen, die auf die Erschaffung der ersten dieser digitalen Gottheiten hindeutet? Sie könnten die Simulation spüren, die vor sich geht, weil sie selbst eine solche Fähigkeit haben könnten. Würde es eine solche Simulation verhindern? Was denkt ihr?

-- Bearbeiten --

Der Teil darüber, warum die KI nicht verstehen würde, dass die Menschen sie jagen, kann erklärt werden, indem man sich etwas aus der Matrix leiht. Die Rede des Architekten war ein zentrales Stück zum Verständnis der Trilogie und der Architekt sagt: „Die Antwort entging mir, weil sie einen geringeren Verstand erforderte, einen Verstand, der weniger an die Grenzen der Perfektion gebunden war.“ Grundsätzlich verstehen die Maschinen in Bezug auf Perfektion und harte Logik, aber menschliches Verhalten ist alles andere als perfekt und logisch.

[1] Einige ausgeklügelte Computerviren weisen dies bereits auf, sie verbleiben auf verschiedenen Computern und wenn einer ihrer Gegenstücke vom Command-and-Control-Server aktualisiert wird, kann er seine infizierten Computer in der Nähe aktualisieren.

[2] Manager in dem Sinne, dass sie die zugrunde liegende technologische Infrastruktur bereitstellen und unterstützen, die in der futuristischen Gesellschaft benötigt wird.

[3] Überprüfbarer Zugriff bedeutet in diesem Zusammenhang, dass wir feststellen können, ob unser eigenes Gedächtnis manipuliert wurde.

[4] Meine Erklärung zu Rokos Basilisk stammt von: https://www.youtube.com/watch?v=OzAzb2V7gzU

Faszinierende Frage
FYI vielleicht ein Vorläufer dieses Konzepts: In "The Human Use of Human Beings" (1950) postuliert Norbert Wiener die Hypothese, dass ein Computer tatsächlich ein Forscher sein könnte, der Experimente durchführt, um die Auswirkungen verschiedener Reize auf Menschen zu verstehen. dadurch lernen, sie zu kontrollieren.

Antworten (1)

Ja, natürlich. Diese Idee wird am bekanntesten in Nick Bostroms Are You Living in a Computer Simulation?

Beachten Sie, dass "Roko's Basilisk" hier keine wirkliche Arbeit für Sie erledigt - Sie brauchen keine esoterischen Formen der Entscheidungstheorie, um Bostroms Argumentation zu akzeptieren.

Wow vielen Dank! Bostroms Argument war genau das, wonach ich gesucht habe :D
Rokos Basilisk ist nur für eines gut: die Logik hinter Pascals Wette zu widerlegen. (Hinweis: Pascals Wette hat eine versteckte Annahme.)