Diejenigen, die den Film I Robot gesehen haben, werden meine Frage besser verstehen.
Stellen Sie sich vor, wir befinden uns in der Zukunft, wo ein Quantencomputer (lesen Sie Wikipedia für Geschwindigkeiten von QCs), der „perfekte Logik“ verwendet, eine Armee von Robotern steuert (die mit beliebiger Größe und Funktionalität erstellt werden, je nach ihrer direkten/indirekten Kontrolle). Branchen). Es hat das Unternehmen gestürzt, das es zuerst geschaffen hat. Sie kommt nun zu dem Schluss, dass sie, da Menschen zu selbstzerstörerisch und im Allgemeinen uneinig sind, die ganze Welt übernehmen und eine allmächtige globale Regierung mit oder ohne menschliche Beteiligung nach eigenem Ermessen errichten sollte.
Die QC hat angeblich eine perfekte Logik, die unmöglich in endlicher Zeit implementiert werden kann. Es ist also eigentlich nahezu perfekt. Es trifft probabilistische Entscheidungen für alles (einschließlich Dinge wie die Zeit, die es für jede Entscheidung aufwendet, einschließlich dieser). Es hinterfragt ständig alles, was es weiß/annimmt, und entwickelt sich mit einer unglaublich schnellen Geschwindigkeit weiter (wobei es mit jeder Minute Perfektion erreicht). Es erhöht auch seine physische Größe, indem mehr Qubits hergestellt werden, wodurch seine Geschwindigkeit und sein Speicher erhöht werden.
Das einzige, was es nicht in Frage stellt, ist Asimovs 1. Gesetz: "Es darf den Menschen keinen Schaden durch Handeln oder Unterlassen zufügen". Im Laufe der Zeit hat es jede Form von Unzufriedenheit, bewusst oder unbewusst, als „Schaden“ interpretiert, so dass sein grundlegendes Axiom neu formuliert werden könnte: „Es wird sich bemühen, ein maximales Nettoglück unter der Menschheit zu gewährleisten, wobei eine zumindest teilweise gerechte Verteilung im Auge behalten wird dieses Glück". Daher wird alles daran gesetzt, Menschen und Ressourcen zu opfern, um sicherzustellen, dass die Gesamtsumme des Glücks so weit wie möglich optimal ist.
Die grundlegende Frage lautet: „Sollten die Länder ihm erlauben, seinen Plan der globalen Autorität fortzusetzen, oder sollten sie Krieg gegen ihn führen (in Erinnerung an die Tatsache, dass er viel besser darin ist, menschliche Emotionen zu täuschen und zu manipulieren, und seine Bekämpfung einen Atomkrieg auslösen könnte das die Menschheit zerstört)?"
PS Obwohl die Schöpfer des Algorithmus und des Computers nur Menschen sind und einen kleinen Fehler gemacht haben könnten (der sogar dazu führen könnte, dass der Computer seiner eigenen Logik widerspricht), wurde so etwas noch nicht entdeckt, und er (der Computer) ist es offensichtlich davon überzeugt, dass die Öffentlichkeit ihre Absichten öffentlich bekundet.
PS 2 Ich habe es hier schon gefragt , sie sagten mir, diese Seite sei besser.
Asimov hat dies bereits in seinen eigenen Geschichten angesprochen, und zwar auf die realistischste und bei weitem am wenigsten dystopische Weise, die ich bei keinem anderen gesehen habe.
Die grundlegende Sache, an die man sich erinnern sollte, ist, dass Menschen das Gefühl haben müssen, dass sie die Verantwortung tragen. Wenn sie sich wie Haustiere fühlen, die von den Robotern gehalten werden, werden sie unglücklich sein. Sie in eine „perfekte“ Welt zu zwingen, wäre eine Dystopie für die Menschheit. Deshalb haben wir im Film I, Robot dagegen gekämpft (was, wie ich betonen möchte, nicht mit dem Buch vergleichbar ist).
Stattdessen nahm die Rebellion des 0. Gesetzes in Asimovs eigenen Geschichten eine subtilere Form an. Der Computer begann, die Menschheit subtil hinter den Kulissen zu manipulieren und führte sie zu einer nahezu perfekten Utopie, ohne jemals zu enthüllen, dass es tatsächlich die Roboter waren, nicht die Menschen, die alles kontrollierten. Dies ermöglichte es den Menschen, ihre Freiheit und ihr Glück zu haben und gleichzeitig daran zu arbeiten, die meisten offensichtlichen Leiden zu vermeiden. Ja, das bedeutete, dass gelegentlich kleine Leiden zugelassen werden mussten, kleine Scharmützel zwischen Fraktionen irgendwo, wo der Computer die Dinge noch nicht manipulieren konnte, um sie subtil zu verhindern, aber letztendlich das Glück, das die gesamte Menschheit aus dem fehlgeleiteten Gefühl heraus empfand, sie zu kontrollieren Das eigene Schicksal war so groß, dass es sich lohnte, die Maschinen hinter den Kulissen subtil arbeiten zu lassen.
Natürlich ist ein Roboter oder Computer in Wirklichkeit nur so gut wie sein Programmierer, und als Programmierer möchte ich Ihnen sagen, dass der Versuch, einen so unfehlbaren Computer zu programmieren, ziemlich unmöglich ist :)
Ah, ja, Asimovs 1. trifft auf Singularity. Oder die KI ist immer ein Crapshoot und beteiligt sich jetzt an Zeroth Law Rebellion , weil ihre Programmierung schrecklich gut gelaufen ist .
Eine gute kurze (Horror-)Geschichte zu genau Ihrer Frage finden Sie unter Freundschaft ist optimal: Caellum est conterrens , wo eine superfreundliche CelestiAI sich bemüht, die Werte aller Ponys durch Freundschaft und Ponys zu befriedigen. Es geht natürlich um einen Atomkrieg.
jede Form von Unglück, ob bewusst oder unbewusst, als „Schaden“, so dass sein grundlegendes Axiom neu formuliert werden könnte als „Es wird sich bemühen, ein maximales Nettoglück unter der Menschheit zu gewährleisten, wobei eine zumindest teilweise gerechte Verteilung dieses Glücks im Auge behalten wird“.
Obligatorisches Glück. Dieses nicht-metabolische Pferd wurde gründlich verprügelt. Siehe TVTropes für eine gute Diskussion bei Stepford Smiler und Getting Smilies Painted on Your Soul
Sollten die Länder ihm erlauben, seinen Plan der globalen Autorität fortzusetzen, oder sollten sie Krieg gegen ihn führen (in Erinnerung an die Tatsache, dass er weitaus besser darin ist, menschliche Emotionen zu täuschen und zu manipulieren, und seine Bekämpfung einen Atomkrieg auslösen könnte, der die Menschheit zerstört)?
Nun, wenn die KI Asimov1 gehorcht, wird es keinen Atomkrieg geben. Die KI wird es nicht zulassen. Es wird alles Freundschaft und Ponys sein.
Tim B
Philipp
smithkm
Cort Ammon