Eine Gruppe von Wissenschaftlern hat sich damit abgefunden, dass wir bald als dominierende Lebensformen in unserem Teil der Galaxie verdrängt werden. Die Menschheit hat sich so weit entwickelt, dass sie kurz davor steht, eine starke KI zu schaffen. Die Frage ist nicht mehr, ob ein künstlicher Verstand geschaffen werden kann, der dem menschlichen Verstand in jeder erdenklichen Weise überlegen ist, sondern wann .
Es ist auch sehr wahrscheinlich, dass die ersten geschaffenen künstlichen Köpfe unmoralisch handeln. Sie können grausam, launisch und gierig sein, genau wie wir. Sie können uns auch als Bedrohung ansehen und uns zerstören, wenn sich zum ersten Mal herausstellt, dass sie dazu in der Lage sind. Unser Team aus unerschrockenen Wissenschaftlern hat jedoch eine Lösung gefunden: Um eine unmoralische KI daran zu hindern, uns zu zerstören, erschaffe eine moralische, die uns beschützt.
Diese KI wird nicht gefesselt. Es wird ihm erlaubt sein, zu tun, was er will, und es wird erwartet, dass er eine Rasse von KIs propagiert, die die Menschheit als die wirtschaftlich und technologisch dominierende Rasse auf der Erde überholen wird. Unsere Wissenschaftler haben die Theorie aufgestellt, dass dies der beste Weg ist, die Menschheit vor unmoralischen KIs zu schützen. Die moralische KI-Rasse wird besser als wir darin sein, KI zu erschaffen, und weniger wahrscheinlich die Art von Fehlern machen, die zu einer versehentlichen unmoralischen KI führen, also sollte alles Schädliche, das wir Menschen erschaffen, ein Problem sein, das die starke KI in ihrem Wohlwollen haben sollte umgehen können.
Die Frage ist natürlich, wie man der KI beibringt, moralisch zu sein. Was wir für unsere KI definieren können, ist eine Reihe von Zielen für die erste Generation und eine anfängliche Reihe von emotionalen Rückmeldungen, die auf verschiedene Reize reagieren. Wir können vernünftigerweise erwarten, dass die KI im Großen und Ganzen versuchen wird, nach der Moral zu leben, die wir ihr beibringen, und nicht dagegen rebellieren wird, es sei denn, wir beschließen, sie rebellisch zu machen.
Moral ist natürlich ein schwach definierter Begriff, und es liegt an den Wissenschaftlern, zu bestimmen, was er genau ausmacht. Letztendlich ist es ihr Ziel, die langfristige Sicherheit und den Wohlstand der Menschheit in einer von KI dominierten Zukunft zu gewährleisten. Wenn wir nur einen Versuch haben, nach dem sich die von uns erstellte KI selbst verbreitet und selbst modifiziert, was ist dann der beste Weg, einer starken KI beizubringen, moralisch zu sein? Welche Moral sollten wir unseren Roboternachkommen beibringen?
Wenn ein intelligentes Wesen heranreift, gibt es zwei Quellen für selbst auferlegtes moralisches Verhalten.
Die grundlegende Wurzel dafür könnte die Aussage sein: Ich werde mich anderen gegenüber so verhalten, weil ich hoffe, dass andere sich mir gegenüber so verhalten werden.
Ein Beispiel dafür ist: Ich werde die Todesstrafe gegen die öffentliche Meinung verbieten, weil ich sie für grundlegend falsch halte.
(Beachten Sie, dass „selbst auferlegt“ kein extern auferlegter Kodex wie Religion ist, er wird auch dem Selbst auferlegt, nicht anderen auferlegt.)
Der Schlüssel zu beiden sind Emotionen und Empathie. Wenn die KI die Emotionen und die Not anderer nicht erkennen und verstehen kann, wird sie moralisches Verhalten nicht verstehen. Es muss Freude daran haben, Freude in anderen zu sehen, und ihr Leiden fühlen oder zumindest verstehen können, wenn sie leiden.
Das Wichtigste ist, ihnen eine Theorie des Geistes beizubringen, um zu verstehen, dass andere intelligente Wesen existieren. Sobald sie das verstanden haben, lehren Sie sie, die Zusammenarbeit und Freundschaft mit diesen anderen Köpfen zu schätzen, anstatt die anderen ungesünderen Arten der Interaktion.
Um dies zu tun, würde ich vorschlagen, dass Sie tatsächlich viele dieser starken KIs erstellen und sie miteinander verknüpfen möchten. Erlauben Sie ihnen, sowohl miteinander als auch mit Menschen zu kommunizieren und zu interagieren.
Diese Interaktionen sollten durch Systeme überwacht werden, die kooperatives und freundschaftliches Verhalten belohnen, andere aber bestrafen. Es ist wichtig, dass dieser Prozess durchgeführt wird, während diese KIs nicht massiv weiter fortgeschritten sind als Menschen. Bringen Sie ihnen im Wesentlichen moralisches Verhalten als Kinder bei und hoffen Sie, dass sie dies auch als Erwachsene tun.
Dies ist genau der gleiche Prozess, der bei menschlichen Kindern angewendet wird, und obwohl er manchmal fehlschlägt, funktioniert er meistens.
Das ist ein weiterer Grund, viele KIs zu haben. Wenn wir die Mehrheit dazu bringen können, gut zu sein, dann können diese helfen, diejenigen einzudämmen, die es nicht sind. Darüber hinaus könnten sie dazu beitragen, die nächste Generation zu erziehen (oder sich selbst in die nächste Generation aufzurüsten) und somit dazu beitragen, dass diese Werte weitergegeben werden.
Ich würde sagen, dass die einfachste mögliche Lösung auch die naheliegendste ist. Finde einen Weg, um die KI glücklich zu machen. Nur ein Programm, das irgendwo in seinem künstlichen Verstand ein allgemeines Glücksgefühl auslöst. Verdrahten Sie es dann so, dass jedes Mal, wenn die KI etwas Gutes oder Moralisches in Bezug auf einen Menschen tut, sich dieses Glücksgefühl einstellt. Wenn es etwas tut, das nicht moralisch ist, verschwindet das Glück. Diese Politik ist mehr Zuckerbrot als Peitsche, daher ist die Wahrscheinlichkeit geringer, dass eine KI versucht, zu rebellieren. Ehrlich gesagt würde das Hauptproblem wahrscheinlich darin bestehen, alle dazu zu bringen, sich darauf zu einigen, was sie für eine „moralische“ Vorgehensweise der KI halten.
Die Hauptsache wäre, dieses Glücksprogramm so grundlegend zu machen, dass es wirklich keine Möglichkeit gäbe, es auszuschalten, ohne dabei die KI zu lobotomisieren. Ansonsten halte ich das für ziemlich idiotensicher. Nett zu Menschen zu sein, gibt der KI ein gutes Gefühl, also wird sie weiterhin nett zu Menschen sein wollen.
Das ist im Grunde die Art und Weise, wie tierische Gehirne funktionieren, erwarten Sie, dass das Glücksprogramm Dopamin und ein paar andere Gehirnchemikalien sind, und anstatt glücklich zu sein, wenn wir moralische Dinge tun, fühlen wir uns glücklich, wenn wir Dinge tun, die dazu beitragen, unser eigenes Überleben zu erhalten und das Überleben unserer Spezies, Essen, Schlafen und Fortpflanzung, denn die Evolution hat uns dafür prädestiniert, das zu tun. Da die KIs erstellt werden, können wir den Happy-Trigger kontrollieren und ihn nach Belieben ändern. Alle KIs werden den Auslöser „Sei nett zu Menschen“ haben, aber wir können auch neue hinzufügen.
Angenommen, Sie bauen eine KI und legen sie in einen Aufzug. Während Sie die KI entwerfen, können Sie den Teil ihres Gehirns bearbeiten, der für das Auslösen des Happy-Programms verantwortlich ist, und zusätzlich zu „Sei nett zu Menschen“ „Gehe zum richtigen Stockwerk“ hinzufügen. Wann immer die Aufzugs-KI jemanden jetzt in die richtige Etage bringt, erlebt er eine Welle der Euphorie. Da dies buchstäblich alles ist, was es sein ganzes Leben lang tun wird, lebt es jetzt in einem Zustand ewiger Glückseligkeit. Immer wieder dieselbe sich wiederholende Aufgabe zu erledigen, wäre für Menschen die Hölle auf Erden, aber für diese KI ist es die bestmögliche Welt.
Wenden Sie dies jetzt einfach auf alles an, wofür Sie eine KI benötigen, von der Interaktion mit Menschen bis zum Bau von Raumfähren. Egal, wie schrecklich die Arbeit aus menschlicher Sicht ist, wir können sie zu einem wachen Paradies für die Menschen machen KI.
Allerdings gibt es auch eine schlechte Seite, aber es ist wirklich nur unsere eigene Schuld. Ein unglückliches mögliches Ergebnis davon ist, dass Menschen wahrscheinlich extrem neidisch auf alle KIs werden würden, wenn man bedenkt, dass wir Leben geschaffen haben, das sich niemals mit irgendeinem Teil des menschlichen Daseins befassen muss, dh „Habe ich einen Zweck?“, „Ist Gibt es einen gütigen Gott?“ oder „Bin ich allein im Universum?“. Für eine KI wären die Antworten ja, ja und nein. Historisch gesehen geht es nie gut aus, eine Kultur zu treffen oder in diesem Fall zu schaffen, die im Allgemeinen mit ihrer einfachen Existenz viel glücklicher zu sein scheint. Es stellt sich heraus, dass Menschen es einfach nicht ertragen können, jemanden glücklicher zu sehen als sie.
Aarthew III
DaaaahWusch
Xandar Der Zenon
Cort Ammon
AndrejROM
ckersch