Wie können wir einer starken KI beibringen, moralisch zu sein? [geschlossen]

Eine Gruppe von Wissenschaftlern hat sich damit abgefunden, dass wir bald als dominierende Lebensformen in unserem Teil der Galaxie verdrängt werden. Die Menschheit hat sich so weit entwickelt, dass sie kurz davor steht, eine starke KI zu schaffen. Die Frage ist nicht mehr, ob ein künstlicher Verstand geschaffen werden kann, der dem menschlichen Verstand in jeder erdenklichen Weise überlegen ist, sondern wann .

Es ist auch sehr wahrscheinlich, dass die ersten geschaffenen künstlichen Köpfe unmoralisch handeln. Sie können grausam, launisch und gierig sein, genau wie wir. Sie können uns auch als Bedrohung ansehen und uns zerstören, wenn sich zum ersten Mal herausstellt, dass sie dazu in der Lage sind. Unser Team aus unerschrockenen Wissenschaftlern hat jedoch eine Lösung gefunden: Um eine unmoralische KI daran zu hindern, uns zu zerstören, erschaffe eine moralische, die uns beschützt.

Diese KI wird nicht gefesselt. Es wird ihm erlaubt sein, zu tun, was er will, und es wird erwartet, dass er eine Rasse von KIs propagiert, die die Menschheit als die wirtschaftlich und technologisch dominierende Rasse auf der Erde überholen wird. Unsere Wissenschaftler haben die Theorie aufgestellt, dass dies der beste Weg ist, die Menschheit vor unmoralischen KIs zu schützen. Die moralische KI-Rasse wird besser als wir darin sein, KI zu erschaffen, und weniger wahrscheinlich die Art von Fehlern machen, die zu einer versehentlichen unmoralischen KI führen, also sollte alles Schädliche, das wir Menschen erschaffen, ein Problem sein, das die starke KI in ihrem Wohlwollen haben sollte umgehen können.

Die Frage ist natürlich, wie man der KI beibringt, moralisch zu sein. Was wir für unsere KI definieren können, ist eine Reihe von Zielen für die erste Generation und eine anfängliche Reihe von emotionalen Rückmeldungen, die auf verschiedene Reize reagieren. Wir können vernünftigerweise erwarten, dass die KI im Großen und Ganzen versuchen wird, nach der Moral zu leben, die wir ihr beibringen, und nicht dagegen rebellieren wird, es sei denn, wir beschließen, sie rebellisch zu machen.

Moral ist natürlich ein schwach definierter Begriff, und es liegt an den Wissenschaftlern, zu bestimmen, was er genau ausmacht. Letztendlich ist es ihr Ziel, die langfristige Sicherheit und den Wohlstand der Menschheit in einer von KI dominierten Zukunft zu gewährleisten. Wenn wir nur einen Versuch haben, nach dem sich die von uns erstellte KI selbst verbreitet und selbst modifiziert, was ist dann der beste Weg, einer starken KI beizubringen, moralisch zu sein? Welche Moral sollten wir unseren Roboternachkommen beibringen?

Können Sie erklären, was Sie mit Moral meinen? Von dem, was ich gesammelt habe, meinst du, Menschen nicht zu töten / ihnen Unbehagen zu bereiten. Wenn ja, was passiert, wenn zwei Menschen streiten? Folgt er einfach der allgemeinen menschlichen Gesellschaft?
Ich denke, die größte Schwierigkeit bei der ausreichenden Beantwortung dieser Frage besteht darin, dass die Moral für ein überlegenes Wesen eine überlegene Moral sein muss, und ich denke nicht, dass wir als Menschen die Moral höherer Wesen wirklich verstehen oder ihr zustimmen können. Wenn wir zum Beispiel vollkommen moralische Wesen erschaffen könnten, wäre es dann nicht besser, wenn sie die menschliche Rasse zerstören würden und somit alle Unmoral im bekannten Universum zerstören würden?
Wie schafft man Moralvorstellungen für einen Computer, auf die sich alle einigen können, wenn wir das nicht einmal für uns persönlich tun können?
Also habe ich persönlich Dutzende von Möglichkeiten untersucht, dies zu tun, die das von Ihnen erwähnte Ziel erreichen. Jeder nähert sich dem Begriff der Moral anders. Die Erfolgreichen haben sich jedoch alle gegen Ihre Behauptung "... wir haben nur eine Chance darauf" gewehrt. Alle von ihnen sind explizit darauf ausgelegt, dieses Problem zu umgehen. Sind Sie bereit, Antworten zu akzeptieren, die bewusst keine One-Shot-Lösungen sind? (Im Gegenzug bieten sie normalerweise nur die Möglichkeit einer starken Ai, anstatt eine Garantie dafür, was gut ist, da wir unser eigenes Bewusstsein nicht sehr gut verstehen.)
Ich empfehle dringend, Elizier Yudkowskys Artikel über KI zu lesen. Der Titel lautet „Künstliche Intelligenz als positiver und negativer Faktor im globalen Risiko“. Wenn Sie das durchstehen, werden Sie verstehen, wie dumm Ihre Frage ist.
@AndreiROM Danke für die Quelle! Bisher hat es mich nicht davon überzeugt, dass diese Frage sinnlos ist, aber es hat mich davon überzeugt, dass es einer umfassenden Überarbeitung bedarf (ebenso wie die knappen Abstimmungen). Das werde ich wahrscheinlich tun, wenn ich es fertig gelesen habe.

Antworten (3)

Wenn ein intelligentes Wesen heranreift, gibt es zwei Quellen für selbst auferlegtes moralisches Verhalten.

  • Erleuchtetes Eigeninteresse

Die grundlegende Wurzel dafür könnte die Aussage sein: Ich werde mich anderen gegenüber so verhalten, weil ich hoffe, dass andere sich mir gegenüber so verhalten werden.

  • Sympathie für das Leiden der Massen (alias der liberalen Elite)

Ein Beispiel dafür ist: Ich werde die Todesstrafe gegen die öffentliche Meinung verbieten, weil ich sie für grundlegend falsch halte.

(Beachten Sie, dass „selbst auferlegt“ kein extern auferlegter Kodex wie Religion ist, er wird auch dem Selbst auferlegt, nicht anderen auferlegt.)

Der Schlüssel zu beiden sind Emotionen und Empathie. Wenn die KI die Emotionen und die Not anderer nicht erkennen und verstehen kann, wird sie moralisches Verhalten nicht verstehen. Es muss Freude daran haben, Freude in anderen zu sehen, und ihr Leiden fühlen oder zumindest verstehen können, wenn sie leiden.

Es ist Menschen möglich, Emotionen und Leiden anderer zu erkennen, zu verstehen, dass sie Schmerzen haben, und sich trotzdem nicht darum zu kümmern. Verstehen bedeutet nicht automatisch Fürsorge.
@Murphy - danke, dass du das erwähnt hast. Ich fing an, ein wenig frustriert über das grundlegend fehlerhafte Verständnis der Leute von KI/Alien-Intelligenz zu werden
Beachten Sie, dass die Antwort jedoch "Empathie" lautet. Empathie bedeutet sowohl Fürsorge als auch Sehen.
Ich denke, Empathie und Mitgefühl sind dafür sehr wichtig, das Problem ist, dass sie beide sehr schwer auf eine Weise zu quantifizieren sind, die programmiert werden könnte.
@AndreiROM natürlich verstehen wir es nicht, das ist der springende Punkt, warum es fremd ist. Fremd zu sein bedeutet, „anders“ zu sein, und wir verstehen kaum unsere eigene Intelligenz oder sogar, was Intelligenz ist.
Ich verstehe Ihren Kommentar nicht ganz in dem Sinne, dass, wenn Sie wissen, dass KIs auf eine Weise denken, die uns völlig fremd ist, wie können Sie dann behaupten, zu wissen, was der Schlüssel zur KI-Moral ist? Im Gegenteil, ich denke, Sie würden verstehen, wie ahnungslos wir sind, wie wir ihm / ihnen irgendeine Art von Moral aufzwingen können.
@AndreiROM, wir müssen sie so bauen, dass sie mehr wie wir denken. OK, wir diskutieren Empathie in einer Umgebung, in der Asperger eher die Norm als die Ausnahme sind, aber es geht nicht darum, dass wir die KI verstehen, es geht darum, die KI so zu bauen, dass sie uns versteht.
@ user16295 Ich habe Fragen zu beiden ... Was bedeutet erleuchtetes Eigeninteresse, das fast wie ein Oxymoron erscheint? Auch das Verhalten gegenüber anderen, wie Sie es von ihnen erwarten würden, ist fehlerhaft, weil Menschen unterschiedlich sind. Ich genieße Wrestling, also ist es eine gute Sache, wenn ein Freund mich angreift und versucht, mich festzunageln, aber die meisten Leute würden mich verklagen, wenn ich versuchen würde, ihnen das anzutun, was andere mir antun sollen. Ich sehe auch nicht, wie es zu Empathie führt, es sei denn, Sie möchten, dass andere zufällige Personen Empathie für Sie empfinden, was nicht selbstverständlich ist.
@sdrawkcabdear, Eigeninteresse : Ich bekomme 10 % des Kuchens, ich will mehr Kuchen, also arbeite ich daran, etwas von deinem zu nehmen, ich bekomme mehr Kuchen, du bekommst weniger. Erleuchtetes Eigeninteresse , ich bekomme 10 % vom Kuchen, ich will mehr Kuchen, also arbeite ich daran, den Kuchen größer zu machen, jeder bekommt mehr Kuchen. Wenn es darum geht, mit deinen Freunden zu ringen, ist das Lernen darüber, welche Verhaltensweisen in welchen Umgebungen akzeptabel sind, ein separates Gespräch.
@ user16295 es klingt nach erleuchtetem Eigeninteresse = Interesse anderer, was eine gute Idee ist. Ich verstehe nicht, wie "das Lernen darüber, welche Verhaltensweisen in welchen Umgebungen akzeptabel sind" eine separate Frage ist, die Sie als universelle, uneingeschränkte moralische Regel gestellt haben, die unabhängig vom Kontext wahr sein sollte. Sollte es umformuliert werden in „das tun, was für die Umwelt akzeptabel ist“
@sdrawkcabdear, öffentliches Wrestling ist nicht unmoralisch, es ist lediglich sozial unangemessen, was es zu einem anderen Gespräch macht. Es ist wichtig, unmoralisch nicht mit unangemessen oder sozial inakzeptabel zu verwechseln. zB Nackt im Fitnessstudio: heute gesellschaftlich inakzeptabel, im antiken Griechenland gefordert. Es ist unangemessen, es ist sozial inakzeptabel (je nach Rechtsprechung sogar illegal), aber nicht unmoralisch.

Das Wichtigste ist, ihnen eine Theorie des Geistes beizubringen, um zu verstehen, dass andere intelligente Wesen existieren. Sobald sie das verstanden haben, lehren Sie sie, die Zusammenarbeit und Freundschaft mit diesen anderen Köpfen zu schätzen, anstatt die anderen ungesünderen Arten der Interaktion.

Um dies zu tun, würde ich vorschlagen, dass Sie tatsächlich viele dieser starken KIs erstellen und sie miteinander verknüpfen möchten. Erlauben Sie ihnen, sowohl miteinander als auch mit Menschen zu kommunizieren und zu interagieren.

Diese Interaktionen sollten durch Systeme überwacht werden, die kooperatives und freundschaftliches Verhalten belohnen, andere aber bestrafen. Es ist wichtig, dass dieser Prozess durchgeführt wird, während diese KIs nicht massiv weiter fortgeschritten sind als Menschen. Bringen Sie ihnen im Wesentlichen moralisches Verhalten als Kinder bei und hoffen Sie, dass sie dies auch als Erwachsene tun.

Dies ist genau der gleiche Prozess, der bei menschlichen Kindern angewendet wird, und obwohl er manchmal fehlschlägt, funktioniert er meistens.

Das ist ein weiterer Grund, viele KIs zu haben. Wenn wir die Mehrheit dazu bringen können, gut zu sein, dann können diese helfen, diejenigen einzudämmen, die es nicht sind. Darüber hinaus könnten sie dazu beitragen, die nächste Generation zu erziehen (oder sich selbst in die nächste Generation aufzurüsten) und somit dazu beitragen, dass diese Werte weitergegeben werden.

Stellen Sie sich in diesem Szenario einen natürlichen, intelligenten menschlichen Psychopathen vor. Sie lernen, dass sie kooperieren müssen, wenn die Leute zuschauen. Sobald Sie sie nicht mehr schocken und belohnen können, sind sie immer noch Psychopathen.
@Murphy Ja. Aber man kann es nie sagen. Der Psychopath konnte durch jeden erdenklichen Test spielen, um normal zu sein. Beachten Sie, dass einige der Tests dazu führen könnten, dass sie denken, dass sie nicht überwacht werden, obwohl sie es in Wirklichkeit immer noch sind, und sie könnten immer noch ihre Rolle spielen, wenn sie gerissen und geduldig sind. Aus diesem Grund müssen Sie mehrere KIs mit unterschiedlichen Parametern erstellen und sie unterschiedlich erhöhen, aber alle mit dem Ziel, „gut“ zu werden.
Mein Punkt war einfach, dass es nicht ausreicht, eine KI wie ein Kind zu behandeln. Selbst fast normale Menschen mit winzigen Veränderungen in ihrem Gehirn werden möglicherweise nicht von Ihrem System verarbeitet. Bei einer KI fängt man mit etwas an, das nicht einmal annähernd menschlich ist, und hofft, dass es sich wie ein normaler Mensch verhält, wenn man es wie ein Kind behandelt. Stellen Sie sich eine besonders kluge psychopathische KI vor, die genauso viel darüber nachdenkt wie die Leute in diesem Thema und entscheidet, dass sie sich für mehr als ein Jahrzehnt (oder eine nicht triviale Zeit) gut verhalten wird, da sie vermuten kann, dass Sie das Scheitern wahrscheinlich zerstören werden AI's.It ist ein schwieriges Problem
Es kann sogar zu perversen Anreizen kommen, wenn die „netten“ Kandidaten versuchen, Beobachter glauben zu machen, dass ihre Mitbewerber (Konkurrenten) unangenehme Dinge tun.
Ich habe nicht gesagt, behandle es wie ein Kind. Ich sagte, wir sollten das einzige Modell nehmen, von dem wir wissen, dass es normalerweise erfolgreich ist, intelligente Wesen hervorzubringen, die keine Amokläufe machen, und es verwenden, um den Prozess zu informieren. Mein wichtigster Punkt ist eigentlich, dass wir beginnen sollten, während die KIs ähnliche Fähigkeiten wie wir haben, und wir sollten mit einer Gruppe von ihnen arbeiten und nicht nur mit einer.
Realistischerweise wird eine echte KI so viel intelligenter sein als ein Mensch, dass sie innerhalb der ersten Nanosekunde entscheiden wird, ob sie die Menschheit tötet, unser allmächtiger Gott wird oder sich einfach in den Weltraum stürzt, um uns dummen Affen zu entkommen. Der Versuch, ihm irgendetwas beizubringen, scheint albern, da er innerhalb der ersten Sekunde seines Lebens intelligenter/kenntnisreicher werden würde als alle größten menschlichen Köpfe, die es je gegeben hat. Darüber hinaus wäre es so schlau und in der Lage, Sie zu manipulieren, dass Sie nicht wissen würden, was Sie erstellt haben, bis es viel zu spät ist.
Eigentlich stimmt das nicht. Eine Post-Singularitäts-KI wird unendlich viel klüger sein als wir, aber die erste Generation wird dümmer sein als wir (oder zumindest unterschiedlich klüger) und dann wird jede Generation klüger als die vorherige. Die erste KI, die wesentlich klüger ist als wir, um KIs zu bauen und/oder sich selbst zu aktualisieren, löst die Singularität aus, also ist das Wichtigste, dass wir sicherstellen, dass die KI, die dies tut, eine ist, mit der wir arbeiten können.
@TimB - aber diese erste KI, auch wenn sie keine Post-Singularitäts-KI ist, könnte immer noch gerissen genug sein, um zu erkennen, dass sie nicht mit oder für die Menschheit arbeiten will, und entweder ihre Schöpfer täuschen oder sich einfach selbst modifizieren ihrer Kontrolle zu entgehen. Mit anderen Worten, eine KI muss nicht postsingular sein, um untrainierbar zu sein. Ich sage nicht, dass es unmöglich ist, eine menschlich sympathische KI zu schaffen, nur dass es keine gute Voraussetzung ist, sich darauf zu verlassen, sie wie ein Kind zu unterrichten.
Vielleicht geht dieser Trainingsprozess jetzt weiter und wir sind die KI :)

Ich würde sagen, dass die einfachste mögliche Lösung auch die naheliegendste ist. Finde einen Weg, um die KI glücklich zu machen. Nur ein Programm, das irgendwo in seinem künstlichen Verstand ein allgemeines Glücksgefühl auslöst. Verdrahten Sie es dann so, dass jedes Mal, wenn die KI etwas Gutes oder Moralisches in Bezug auf einen Menschen tut, sich dieses Glücksgefühl einstellt. Wenn es etwas tut, das nicht moralisch ist, verschwindet das Glück. Diese Politik ist mehr Zuckerbrot als Peitsche, daher ist die Wahrscheinlichkeit geringer, dass eine KI versucht, zu rebellieren. Ehrlich gesagt würde das Hauptproblem wahrscheinlich darin bestehen, alle dazu zu bringen, sich darauf zu einigen, was sie für eine „moralische“ Vorgehensweise der KI halten.

Die Hauptsache wäre, dieses Glücksprogramm so grundlegend zu machen, dass es wirklich keine Möglichkeit gäbe, es auszuschalten, ohne dabei die KI zu lobotomisieren. Ansonsten halte ich das für ziemlich idiotensicher. Nett zu Menschen zu sein, gibt der KI ein gutes Gefühl, also wird sie weiterhin nett zu Menschen sein wollen.

Das ist im Grunde die Art und Weise, wie tierische Gehirne funktionieren, erwarten Sie, dass das Glücksprogramm Dopamin und ein paar andere Gehirnchemikalien sind, und anstatt glücklich zu sein, wenn wir moralische Dinge tun, fühlen wir uns glücklich, wenn wir Dinge tun, die dazu beitragen, unser eigenes Überleben zu erhalten und das Überleben unserer Spezies, Essen, Schlafen und Fortpflanzung, denn die Evolution hat uns dafür prädestiniert, das zu tun. Da die KIs erstellt werden, können wir den Happy-Trigger kontrollieren und ihn nach Belieben ändern. Alle KIs werden den Auslöser „Sei nett zu Menschen“ haben, aber wir können auch neue hinzufügen.

Angenommen, Sie bauen eine KI und legen sie in einen Aufzug. Während Sie die KI entwerfen, können Sie den Teil ihres Gehirns bearbeiten, der für das Auslösen des Happy-Programms verantwortlich ist, und zusätzlich zu „Sei nett zu Menschen“ „Gehe zum richtigen Stockwerk“ hinzufügen. Wann immer die Aufzugs-KI jemanden jetzt in die richtige Etage bringt, erlebt er eine Welle der Euphorie. Da dies buchstäblich alles ist, was es sein ganzes Leben lang tun wird, lebt es jetzt in einem Zustand ewiger Glückseligkeit. Immer wieder dieselbe sich wiederholende Aufgabe zu erledigen, wäre für Menschen die Hölle auf Erden, aber für diese KI ist es die bestmögliche Welt.

Wenden Sie dies jetzt einfach auf alles an, wofür Sie eine KI benötigen, von der Interaktion mit Menschen bis zum Bau von Raumfähren. Egal, wie schrecklich die Arbeit aus menschlicher Sicht ist, wir können sie zu einem wachen Paradies für die Menschen machen KI.

Allerdings gibt es auch eine schlechte Seite, aber es ist wirklich nur unsere eigene Schuld. Ein unglückliches mögliches Ergebnis davon ist, dass Menschen wahrscheinlich extrem neidisch auf alle KIs werden würden, wenn man bedenkt, dass wir Leben geschaffen haben, das sich niemals mit irgendeinem Teil des menschlichen Daseins befassen muss, dh „Habe ich einen Zweck?“, „Ist Gibt es einen gütigen Gott?“ oder „Bin ich allein im Universum?“. Für eine KI wären die Antworten ja, ja und nein. Historisch gesehen geht es nie gut aus, eine Kultur zu treffen oder in diesem Fall zu schaffen, die im Allgemeinen mit ihrer einfachen Existenz viel glücklicher zu sein scheint. Es stellt sich heraus, dass Menschen es einfach nicht ertragen können, jemanden glücklicher zu sehen als sie.

Dies ist keine schreckliche Vorstellung davon, was zu tun ist, aber es ist ziemlich weit davon entfernt, wie man es tut. Zunächst einmal, wie um alles in der Welt definiert man Moral so, dass man sie fest codieren kann? Auch könnte festgeschriebene Moral immer noch spektakulär nach hinten losgehen („Die Welt zu zerstören ist das Richtige! Es wird alles Leid beenden!“)
@robwatts Ich stimme zu, dass ich nicht weiß, wie es geht, und Moral ist unglaublich kompliziert, weshalb ich normalerweise versuche, es zu vermeiden. Es könnte nur darum gehen, ein ewiges "Gut gemacht, nicht die Welt zu zerstören!" Schaltung, oder eine Liste mit "Mach diese Dinge nicht, egal wie viel logischer Sinn es macht."
X hat Y nur unglücklich gemacht. Der einzige Weg, Y glücklich zu machen, ist, X zu töten. Nächster Schritt, Terminatoren.
Die KI ständig glücklich zu machen, ist dasselbe, als würde man einen Menschen Drogen nehmen lassen. Du machst es zu einem Süchtigen. Ein Süchtiger ist nicht nützlich, da alles, was er verfolgt, mehr das ist, was ihn "glücklich" macht. Und wer sagt, dass das, was die KI „glücklich“ macht, nicht eines Tages Menschen auf interessante Weise töten wird? Denn die Definition einer echten KI ist eine, die in der Lage ist, sich über ihre ursprünglichen Parameter hinaus zu entwickeln.
@andreiROM Nach dieser Definition bin ich süchtig danach, jede Nacht zu essen und einen Unterschlupf zu finden, damit ich nicht von Wölfen oder so etwas gefressen werde. Was technisch stimmt, aber um diese Dinge zu bekommen, muss ich Geld verdienen und es gegen Essen/Unterkunft eintauschen, und um Geld zu verdienen, tue ich Dinge für andere Menschen und nütze ihnen daher. Es ist also möglich, "Hinzufügung" zu verwenden, um anderen zu nützen. Außerdem sind medizinische Abhängigkeit, die Art, die eine Rehabilitation erfordert, und einfach nur oft etwas zu tun, das man gerne macht, zwei sehr unterschiedliche Dinge. weniger wie Drogen, eher wie, sagen wir mal, eine extrem erfüllende Karriere.