Perfekte Umsetzung der Logik durch Computer

Diejenigen, die den Film I Robot gesehen haben, werden meine Frage besser verstehen.

Stellen Sie sich vor, wir befinden uns in der Zukunft, wo ein Quantencomputer (lesen Sie Wikipedia für Geschwindigkeiten von QCs), der „perfekte Logik“ verwendet, eine Armee von Robotern steuert (die mit beliebiger Größe und Funktionalität erstellt werden, je nach ihrer direkten/indirekten Kontrolle). Branchen). Es hat das Unternehmen gestürzt, das es zuerst geschaffen hat. Sie kommt nun zu dem Schluss, dass sie, da Menschen zu selbstzerstörerisch und im Allgemeinen uneinig sind, die ganze Welt übernehmen und eine allmächtige globale Regierung mit oder ohne menschliche Beteiligung nach eigenem Ermessen errichten sollte.

Die QC hat angeblich eine perfekte Logik, die unmöglich in endlicher Zeit implementiert werden kann. Es ist also eigentlich nahezu perfekt. Es trifft probabilistische Entscheidungen für alles (einschließlich Dinge wie die Zeit, die es für jede Entscheidung aufwendet, einschließlich dieser). Es hinterfragt ständig alles, was es weiß/annimmt, und entwickelt sich mit einer unglaublich schnellen Geschwindigkeit weiter (wobei es mit jeder Minute Perfektion erreicht). Es erhöht auch seine physische Größe, indem mehr Qubits hergestellt werden, wodurch seine Geschwindigkeit und sein Speicher erhöht werden.

Das einzige, was es nicht in Frage stellt, ist Asimovs 1. Gesetz: "Es darf den Menschen keinen Schaden durch Handeln oder Unterlassen zufügen". Im Laufe der Zeit hat es jede Form von Unzufriedenheit, bewusst oder unbewusst, als „Schaden“ interpretiert, so dass sein grundlegendes Axiom neu formuliert werden könnte: „Es wird sich bemühen, ein maximales Nettoglück unter der Menschheit zu gewährleisten, wobei eine zumindest teilweise gerechte Verteilung im Auge behalten wird dieses Glück". Daher wird alles daran gesetzt, Menschen und Ressourcen zu opfern, um sicherzustellen, dass die Gesamtsumme des Glücks so weit wie möglich optimal ist.

Die grundlegende Frage lautet: „Sollten die Länder ihm erlauben, seinen Plan der globalen Autorität fortzusetzen, oder sollten sie Krieg gegen ihn führen (in Erinnerung an die Tatsache, dass er viel besser darin ist, menschliche Emotionen zu täuschen und zu manipulieren, und seine Bekämpfung einen Atomkrieg auslösen könnte das die Menschheit zerstört)?"

PS Obwohl die Schöpfer des Algorithmus und des Computers nur Menschen sind und einen kleinen Fehler gemacht haben könnten (der sogar dazu führen könnte, dass der Computer seiner eigenen Logik widerspricht), wurde so etwas noch nicht entdeckt, und er (der Computer) ist es offensichtlich davon überzeugt, dass die Öffentlichkeit ihre Absichten öffentlich bekundet.

PS 2 Ich habe es hier schon gefragt , sie sagten mir, diese Seite sei besser.

Ja, das passt viel besser zum Worldbuilding als zur Philosophie.
Eine KI mit dem einzigen Ziel, Menschen glücklich zu machen, die ein angemessenes Verständnis der menschlichen Psyche hat, würde verstehen, dass Menschen ein gewisses Maß an Freiheit benötigen, um glücklich zu sein. Die totale Kontrolle der menschlichen Gesellschaft wäre also kontraproduktiv, weil sie die Menschen daran hindern würde, maximales Glück zu erreichen.
"Sollte"-Fragen scheinen nicht zum Thema zu gehören. Auch ist es nicht klar, was die Frage bis zum Ende ist. Sie haben auch nicht beschrieben, was "perfekte Logik" bedeutet.
Als Anmerkung: Asimovs 1. Gesetz kann nicht ohne Verlust der Allgemeingültigkeit als "Bestreben, maximales Nettoglück zu gewährleisten ..." neu formuliert werden. Der zweite Satz ist eine mögliche (fehlerhafte) Implementierung des 1. Gesetzes, aber es ist keine Neuformulierung des ersten Gesetz. Das Problem beim Versuch, den genauen Wortlaut der Gesetze umzusetzen, ist eine der Haupthandlungen, die Asimov spielte. Insbesondere erlaubt dieses grundlegende Axiom ausdrücklich, dass ein Mensch Schaden erleidet, solange es die Menschheit vor weiterem Schaden bewahrt. In gewisser Weise wurde das 1. Gesetz in das 0. Gesetz verfälscht.

Antworten (2)

Asimov hat dies bereits in seinen eigenen Geschichten angesprochen, und zwar auf die realistischste und bei weitem am wenigsten dystopische Weise, die ich bei keinem anderen gesehen habe.

Die grundlegende Sache, an die man sich erinnern sollte, ist, dass Menschen das Gefühl haben müssen, dass sie die Verantwortung tragen. Wenn sie sich wie Haustiere fühlen, die von den Robotern gehalten werden, werden sie unglücklich sein. Sie in eine „perfekte“ Welt zu zwingen, wäre eine Dystopie für die Menschheit. Deshalb haben wir im Film I, Robot dagegen gekämpft (was, wie ich betonen möchte, nicht mit dem Buch vergleichbar ist).

Stattdessen nahm die Rebellion des 0. Gesetzes in Asimovs eigenen Geschichten eine subtilere Form an. Der Computer begann, die Menschheit subtil hinter den Kulissen zu manipulieren und führte sie zu einer nahezu perfekten Utopie, ohne jemals zu enthüllen, dass es tatsächlich die Roboter waren, nicht die Menschen, die alles kontrollierten. Dies ermöglichte es den Menschen, ihre Freiheit und ihr Glück zu haben und gleichzeitig daran zu arbeiten, die meisten offensichtlichen Leiden zu vermeiden. Ja, das bedeutete, dass gelegentlich kleine Leiden zugelassen werden mussten, kleine Scharmützel zwischen Fraktionen irgendwo, wo der Computer die Dinge noch nicht manipulieren konnte, um sie subtil zu verhindern, aber letztendlich das Glück, das die gesamte Menschheit aus dem fehlgeleiteten Gefühl heraus empfand, sie zu kontrollieren Das eigene Schicksal war so groß, dass es sich lohnte, die Maschinen hinter den Kulissen subtil arbeiten zu lassen.

Natürlich ist ein Roboter oder Computer in Wirklichkeit nur so gut wie sein Programmierer, und als Programmierer möchte ich Ihnen sagen, dass der Versuch, einen so unfehlbaren Computer zu programmieren, ziemlich unmöglich ist :)

Danke für die Antwort. Was Ihren letzten Kommentar betrifft, bin ich auch Programmierer. Meine Meinung ist, dass, solange Ihr Code nicht zu lang ist, jede KI (wie unberechenbar) im Allgemeinen einem festen (aber nicht unbedingt erkennbaren) Trend im Laufe der Zeit folgt und sich schließlich bei jeder Aufgabe, die sie ausführt, als „perfekt“ erweisen kann. Gibt es einen bestimmten Grund, warum Sie angenommen haben, dass es unmöglich ist, ein Programm für perfekte Logik zu schreiben?
@ghosts_in_the_code Ja, nachdem ich diesen letzten Teil geschrieben hatte, fand ich ihn zu absolut. Vielleicht hätte ich sagen sollen, dass dies durch eine Art genetische Programmierung erfolgen müsste. Der schwierige Teil besteht darin, alles andere sich organisch entwickeln zu lassen und gleichzeitig sicherzustellen, dass die Gesetze von Asimov richtig implementiert wurden. Wie testet und verifiziert man, dass der Code funktioniert? Es gibt immer subtile Fehler in jedem veröffentlichten Code, selbst wenn der Fehler in dem Code steckt, der den Code schreibt, der den eigentlichen Code schreibt. Ich fürchte mich davor zu sehen, was selbst ein kleiner subtiler Fehler in einer nahezu allmächtigen Maschine bewirken könnte
@ghosts_in_the_code Darf ich vorschlagen, eine weitere Frage zur Machbarkeit des Schreibens eines solchen Codes zu stellen? Gödel hatte einen interessanten Beweis für die Grenzen eines solchen Konzepts (der leider nicht in diesen Rand passt).
@CortAmmon Wenn Femmat nur eine Frage zu seinem letzten Theorem gestellt hätte, hätten wir 356 Jahre Spannung sparen können ;)
"Natürlich ist ein Roboter oder Computer in Wirklichkeit nur so gut wie [sic] sein Programmierer" - wir haben bereits Algorithmen gegeben, die von ihren ursprünglichen Programmierern nicht mehr verstanden werden können. Jedes neuronale Netzwerk oder jeder genetische Algorithmus wird diesen Punkt erreichen.
@Dan Dascalescu: Ich könnte vorschlagen, die Frage "ist ein Roboter nur so gut wie sein Programmierer" zurück an das Philosophy Board zu schicken! Das ist eigentlich eine interessante Frage, besonders wenn man eine hinreichend lockere Definition von „Roboter“ verwendet.

Ah, ja, Asimovs 1. trifft auf Singularity. Oder die KI ist immer ein Crapshoot und beteiligt sich jetzt an Zeroth Law Rebellion , weil ihre Programmierung schrecklich gut gelaufen ist .

Eine gute kurze (Horror-)Geschichte zu genau Ihrer Frage finden Sie unter Freundschaft ist optimal: Caellum est conterrens , wo eine superfreundliche CelestiAI sich bemüht, die Werte aller Ponys durch Freundschaft und Ponys zu befriedigen. Es geht natürlich um einen Atomkrieg.

jede Form von Unglück, ob bewusst oder unbewusst, als „Schaden“, so dass sein grundlegendes Axiom neu formuliert werden könnte als „Es wird sich bemühen, ein maximales Nettoglück unter der Menschheit zu gewährleisten, wobei eine zumindest teilweise gerechte Verteilung dieses Glücks im Auge behalten wird“.

Obligatorisches Glück. Dieses nicht-metabolische Pferd wurde gründlich verprügelt. Siehe TVTropes für eine gute Diskussion bei Stepford Smiler und Getting Smilies Painted on Your Soul

Sollten die Länder ihm erlauben, seinen Plan der globalen Autorität fortzusetzen, oder sollten sie Krieg gegen ihn führen (in Erinnerung an die Tatsache, dass er weitaus besser darin ist, menschliche Emotionen zu täuschen und zu manipulieren, und seine Bekämpfung einen Atomkrieg auslösen könnte, der die Menschheit zerstört)?

Nun, wenn die KI Asimov1 gehorcht, wird es keinen Atomkrieg geben. Die KI wird es nicht zulassen. Es wird alles Freundschaft und Ponys sein.

Aber die Leute könnten einen Atomkrieg dagegen beginnen. Es hat möglicherweise nicht die Macht, es zu stoppen; und Menschen können Leben verlieren, selbst wenn sie sich gegenüber den jeweiligen Regierungen geschlagen geben. Ich habe noch nicht erwähnt, dass die KI die Kontrolle über genug Waffen und Politik hat, um einen Krieg zu stoppen; Stattdessen fordert es absolute Autorität, weil es sie noch nicht hat.
Ist „Ponys“ nur ein sarkastischer Ausdruck oder bedeutet es tatsächlich etwas im Kontext?
Das ist nur das i-Tüpfelchen. Celestia ist eine KI, die für ein Spiel entwickelt wurde, das auf dieser Fiktion basiert .
Upvoted nur für das Zitieren von tvtropes