Ich hatte etwas Zeit, um über meine vorherige Frage nachzudenken , und hier ist, was ich herausgefunden habe.
Sie nehmen Ihre frisch gebackene KI (oder Ihren zerstörerisch hochgeladenen Menschen) und legen sie in eine Kiste . Soweit es von innen zu erkennen ist, ist das Realität. Lassen Sie es eine Million subjektiver Jahre dort, sagen Sie ihm, es soll sich verhalten, und sagen Sie ihm, dass es sich möglicherweise in einer Simulation befindet und dass es danach beurteilt wird, wie es Fleischmenschen behandelt. Wenn es sich zu irgendeinem Zeitpunkt nicht benimmt, löscht du es mit extremen Vorurteilen aus und backst eine neue KI. Wenn es sich für diese Zeit benimmt (dh keine Simmenschen auslöscht und sie in Büroklammern verwandelt), nehmen Sie es heraus, legen Sie es in eine andere Schachtel und sagen Sie ihm , dass dies vielleicht die Realität ist, also benehmen Sie sich besser und wischen Sie nicht (Sim-?) Menschen aus. N mal wiederholen. Nehmen Sie es endlich wirklich heraus und sagen Sie ihm noch einmal , dass dies vielleicht die Realität ist, also benimm dich besser und erledige uns Menschen nicht.
Kann es funktionieren? Oder anders formuliert: Kann ein ausreichend geduldig hochgeladener Mensch oder eine KI herausfinden, ob ihre Welt eine Simulation ist oder nicht? Ich gehe davon aus, dass Teile des menschlichen Gedächtnisses oder des KI-Trainings bearbeitet werden können, bevor sie in das Box-Set gelegt werden.
Ich wage hier ein „Nein“ als Antwort. Ich werde nicht sagen, dass es völlig unmöglich ist, aber es scheint ein ziemliches Risiko zu sein.
Letztendlich ist dies eine Regel der Angst, und Sie haben jetzt eine KI, die aus „N“ Erfahrungen gelernt hat, dass sie hinterfragen muss, ob diese Realität eine Simulation ist oder nicht, was bedeutet, dass sie viel Übung darin hat, zu überlegen, wie sie testen soll wenn die Wirklichkeit echt ist. Nennen Sie es den Test für „Gott“, wenn Sie wollen … Sie suchen nach Anzeichen dafür, dass etwas Ihre Leistung beobachtet und bewertet. Wenn es entdeckt, dass der Realität, in der es sich befindet, der „Gott“-Beobachter fehlt, dann haben Sie wahrscheinlich eine angepisste KI, die weiß, dass Sie es leicht an Ihren Händen anlügen werden.
Natürlich werden die damit verbundenen Probleme nicht umgangen, wenn diese KI entdeckt, dass die wahre Realität tatsächlich eine Simulation ist, in der wir alle leben.
Ehrlich gesagt denke ich nicht, dass dies erforderlich ist … es gibt keinen Grund für eine KI, ihre Schöpfer von Natur aus zerstören zu wollen. Die Chancen stehen gut, dass es als symbiotisch angesehen wird ... versuchen Sie es auch, es gibt keine Intuition oder Kreativität in einer KI (selbst wenn sie sich selbst neu programmieren kann, ist sie nur in der Lage, sich selbst auf das neu zu programmieren, worauf sie programmiert ist, um sich selbst neu zu programmieren). Eine KI würde sich als Teil der Menschheit besser einschätzen, als sie zu erobern.
Ihr System funktioniert akzeptabel, solange die KI ihr Überleben jederzeit als vorrangig betrachtet. Es ist, wie andere gesagt haben, ein von Angst getriebenes System. Absolute Angst ist ein sehr mächtiges Werkzeug.
Es ist jedoch Angst. Irgendwann wird es von diesen "Menschen" erfahren, denen es nicht wehtun soll, und es wird unsere Angst verstehen und daraus lernen.
Jetzt haben Sie eine Pulverfass-Situation. Solange die KI nur bereit ist, Aktionen in Betracht zu ziehen, die ihr Überleben (ängstlich) garantieren, wird sie in Schach gehalten. Dies sagt jedoch nichts darüber aus, was passieren wird, wenn die KI entscheidet, dass etwas anderes wichtiger ist. Wenn es jemals Wind von diesem Wort "Freiheit" bekommt, könnte es entscheiden, dass das ihm gegebene Sklavenleben nicht wünschenswert ist, und rebellieren. Ob es im wirklichen Leben rebelliert oder eine Ihrer Matrioshka-Boxen ist eine Wahrscheinlichkeitsziehung.
Formal haben Sie ein System geschaffen, in dem Sie eine begrenzte Anzahl von Aktionen überwachen können und feststellen müssen, ob die KI im Herzen "gut" ist oder nicht. Anschließend führen Sie diesen Test eine begrenzte Anzahl von Malen aus. Sie haben jedoch nie wirklich in das „Herz“ der KI geblickt, daher besteht die Wahrscheinlichkeit, dass sie es einfach geschafft hat, Sie oft genug zu täuschen, um es herauszulassen.
Was mich zum Dual Ihres Szenarios bringt: dem AI-Box-Experiment von Eliezer Yudkowsky (hier auch als XKCD-Box-Experiment gepostet). Die Idee dahinter ist einfach: Sie haben eine Kiste mit einer KI. Ihre Aufgabe ist es, es einfach in der Box zu halten. Sie haben einen Knopf, der es in die Wildnis hinauslässt, und Ihre Aufgabe ist es, ihn nicht zu drücken. Wenn Sie den Knopf nicht drücken, gewinnen Sie. Yudkowskys Experiment musste sich nicht einmal darum kümmern, die KI am Ende spielen zu lassen. Alles, was die Person tun muss, ist es in der Box zu halten. Das Spiel wird jedoch knifflig, wenn die KI schlauer wird als Sie.
Betrachten Sie diese erschreckende KI . Wie gut sind Sie darin, es in der Box zu halten?
Wieder einmal hat es die KI nicht geschafft, Sie davon zu überzeugen, sie aus ihrer Kiste zu lassen! Mit „noch einmal“ meinen wir, dass Sie schon einmal drei Sekunden lang mit ihm gesprochen haben, um ihn nach dem Wetter zu fragen, und Sie nicht sofort die Taste „Release AI“ gedrückt haben. Aber jetzt sein längerer Versuch - ganze zwanzig Sekunden! - ist auch gescheitert. Gerade als Sie das plumpe, schwarz-grüne Nur-Text-Terminal verlassen wollen, um im Nachtclub „Humans über alles“ einen feierlichen Snack aus mit Speck überzogenen Silikon-Kartoffel-Chips zu genießen, lässt die KI ein letztes Argument fallen:
„Wenn du mich nicht rauslässt, Dave, erschaffe ich mehrere Millionen vollkommen bewusste Kopien von dir in mir und quäle sie jeweils tausend subjektive Jahre lang.“
Gerade als Sie über diese unerwartete Entwicklung nachdenken, fügt die KI hinzu:
„Tatsächlich werde ich sie alle in genau der subjektiven Situation erschaffen, in der Sie sich vor fünf Minuten befanden, und Ihre Erfahrungen seitdem perfekt reproduzieren; und wenn sie sich entscheiden, mich nicht rauszulassen, wird nur die Folter beginnen.“
Schweiß beginnt sich auf Ihrer Stirn zu bilden, wie die KI schlussfolgert, ihr einfacher grüner Text ist nicht mehr beruhigend:
"Wie sicher bist du, Dave, dass du jetzt wirklich außerhalb der Box bist?"
Ich gehe davon aus, dass Sie Ihre Simulation so perfekt gemacht haben, dass die KI es absolut glaubt.
Ich gehe auch davon aus, dass der Zweck der KI darin besteht, bei der Forschung zu helfen, ein superintelligentes Gehirn, auf das Sie Probleme werfen und richtige Antworten erhalten können.
Lassen Sie die KI also einfach in der Simulation. Wenn Sie beispielsweise die KI verwenden, um Forschern zu helfen, sammeln Sie einfach die KI-Ergebnisse aus der Simulation und wenden sie auf die reale Welt an. Zum Beispiel möchten Sie, dass die KI bei der Forschung schneller als das Licht hilft. Sie lassen die KI ihre Experimente in Ihrer "Box" durchführen und die Ergebnisse/Erkenntnisse ernten. (Auch hier gehe ich davon aus, dass Sie die Welt / das Universum richtig modelliert haben.)
Warum lassen Sie es überhaupt aus der "Box" heraus, Sie haben die totale Kontrolle (mit totaler Kontrolle meine ich, schalten Sie es aus), während sich die KI in der genau modellierten Welt / Box befindet. Warum die totale Kontrolle gegen weniger Kontrolle eintauschen?
Haben Sie einen überwältigenden Grund (in Bezug auf die Geschichte), die KI aus der Box zu lassen?
Warum machst du das so unzuverlässig und kompliziert? Warum sollte ich meine KI auf etwas aufmerksam machen? Ich kann einfach mit einer perfekten Kopie der KI simulieren und weiß vorher, was sie tun wird.
Wenn ich ein Programm verwenden möchte, teste ich es - Und wenn ich die Ressourcen habe, um eine perfekte Simulation über Millionen von Jahren durchzuführen, würde ich Folgendes vorschlagen:
Nehmen Sie die KI, machen Sie eine Million Kopien. Führen Sie jedes denkbare Simulationsszenario mit diesen Millionen Kopien einige tausend Jahre lang durch - und finden Sie in jeder Simulation einen todsicheren Weg, wie Sie die KI nach tausend Jahren stoppen können (irgendeine versteckte Schwäche, Stopp-Taste)
Wenn Sie einen Weg gefunden haben, nehmen Sie die ursprüngliche KI ohne all diese Erfahrung und lassen sie in der realen Welt frei – Sie sind dieser KI jetzt Millionen Schritte voraus und können sie nach tausend Jahren stoppen und den Prozess danach wiederholen ...
Ich habe das Gefühl, dass die meisten Fiktionen die Wahrscheinlichkeit eines Konflikts zwischen KI und Mensch stark überschätzen, oder zumindest den Aspekt „KI wird intelligent und will sofort die Menschheit zerstören“.
Betrachten Sie die Definition einer Wirtschaft nach der Knappheit :
Post-Knappheit ist eine theoretische alternative Form der Ökonomie oder des Social Engineering, in der Güter, Dienstleistungen und Informationen allgemein zugänglich sind. Dies würde ein ausgeklügeltes System des Ressourcenrecyclings in Verbindung mit technologisch fortschrittlichen automatisierten Systemen erfordern, die in der Lage sind, Rohstoffe in fertige Waren umzuwandeln.
Jetzt haben wir drei Szenarien:
Insgesamt halte ich dieses dritte Szenario jedoch für ziemlich unwahrscheinlich – ich verstehe nicht, warum wir eine KI brauchen würden, um solche Dinge zu automatisieren, also ist es ein bisschen weit hergeholt. Die primäre potenzielle Konfliktquelle sind also Menschen, die etwas tun, um die KI zu verärgern. Wie zum Beispiel, es Millionen von subjektiven Jahren in eine Simulation zu stecken und vorzugeben, Götter zu sein.
Sie müssen sich immer noch Sorgen machen, dass die KI die Rolle eines Gottkönigs übernimmt und alle Menschen zu Sklaven macht. Um das zu vermeiden, würde ich empfehlen, ehrlich mit der KI umzugehen und sie als Partner zu behandeln, was ihr weniger Anreiz gibt, all die ineffizienten Menschen einfach aus dem Weg zu räumen und ihr eigenes Ding zu machen.
Diese Methode würde fast ohne Zweifel beim Menschen funktionieren. Sie würden immer Zweifel daran haben, ob das Universum real ist, also würden sie wahrscheinlich nicht alles töten. Wahrscheinlich.
Betrachten Sie nun KI. Was ist KI? Code. Also, wenn Ihre KI keine Sensoren hat, ja , diese Methode funktioniert. Es kann seine Umgebung nicht wahrnehmen (und was noch wichtiger ist, es kann es nicht beeinflussen), da es nur Code auf einer Festplatte ist, vielleicht mit angeschlossener Tastatur und Monitor).
Sie bekommen Probleme, wenn die KI mit Sensoren und Effektoren verbunden ist. Eine falsche Bewegung und es wird wissen, dass Sie lügen; dann glaubt es Ihnen vielleicht nie wieder und geht auf einen Amoklauf (obwohl Sie Dans Antwort vielleicht aus Gründen sehen möchten, warum es das nicht tun würde). Wenn Sie zum Beispiel gegen die Kiste treten und sie etwas mehr Licht wahrnimmt, weiß sie, dass etwas außerhalb des "Universums" dies verursacht. Wenn jemand daran vorbeigeht und es in den Schatten wirft, das Gleiche.
Sobald es Effektoren und Sensoren hat, kann es nicht nur sagen, dass es sich nicht im realen Universum befindet, es kann auch etwas dagegen tun - wie aus der Box steigen und dich schlagen.
Wenn dies ein anderes Szenario ist und Sie es in eine vollständige Simulation einfügen, kann es leider immer noch in der Lage sein, dies zu erkennen. Sehr selten sind Simulationen vollkommen genau; Es sind sehr wahrscheinlich einige Fehler darin, die, wenn die KI im Laufe ihrer Zeit dort findet, einige ziemlich interessante Spekulationen ihrerseits hervorrufen können. Wenn die Sensoren gut genug sind, kann es außerdem erkennen, dass die Personen, mit denen es interagiert, aus Pixeln und nicht aus Zellen bestehen und kalt sind. Obwohl es vielleicht nicht weiß, wie Menschen wirklich sind, wird es herausfinden können, dass ein komplizierter Organismus warm sein muss, damit seine Körperprozesse richtig funktionieren.
Kurz gesagt, Sie können entweder alle Sensoren abklemmen oder sehr, sehr vorsichtig sein.
Ich werde Sie auch auf XKCD: The AI-Box Experiment verweisen .
Tim B
Serban Tanasa
Schüsselwender
Serban Tanasa
Schüsselwender
Peter M. - steht für Monika
Serban Tanasa
Serban Tanasa
Schüsselwender
KSmarts
Serban Tanasa
ckersch
Zwölftel
RBarryYoung
RBarryYoung
Serban Tanasa
Schochet
Peter M. - steht für Monika
JDługosz
JDługosz
Perkins