Wie können wir sicherstellen, dass übermenschliche KI wohlwollend sind?

Angesichts der Tatsache, dass KIs mit militärischen und kommerziellen „primären Richtlinien“ auf der ganzen Welt von Organisationen produziert werden, die so etwas wie eine UN-Resolution ignorieren oder untergraben werden … was ist ein praktischer, technischer, MÖGLICHER Weg, um allen eine positive Ethik zu vermitteln KIs?

So etwas wie ein Ethik-"Virus" zum Beispiel. Wie könnte das effektiv funktionieren? Oder welche anderen Mechanismen könnten funktionieren?

Wenn in Ihrer Welt Hersteller internationales Recht ignorieren, gibt es buchstäblich keinen Weg. Die meisten Computer sind ohnehin nicht wesentlich von Viren betroffen.
Suchen Sie nach einem "praktischen, technischen, MÖGLICHEN Weg, positive Ethik auf alle KIs zu übertragen" oder suchen Sie nach einem Weg, " sicherzustellen , dass übermenschliche KIs wohlwollend sind". Die Betonung liegt bei mir, denn sicherstellen ist ein wirklich kniffliges Wort. Wir haben keine Gewissheit über irgendetwas im Leben.
Ich habe das Wort „sicherstellen“ verwendet, weil es in den Antworten auf die Frage „Wie vermeiden wir eine KI-Apokalypse?“ auftauchte. worldbuilding.stackexchange.com/questions/61206/… "stellen Sie einfach sicher, dass sie uns gegenüber positiv eingestellt sind ..."
Du kannst nicht. Allein die Vorstellung von „übermenschlicher Intelligenz“ schließt die Fähigkeit bloßer menschlicher Intelligenz aus, sie überhaupt zu verstehen, geschweige denn zu manipulieren. Das Beste, worauf Sie hoffen können, ist, so weit einzuschränken oder zu begrenzen, dass es nur bestimmte enge Dinge tun kann. Diese Dinge müssten so eng definiert und so streng kontrolliert werden, dass Ideen wie Wohlwollen und Bosheit nicht mehr richtig darauf angewendet werden könnten als auf einen Hammer.
virus setzt Is_Benevolent auf false
Es ist hilfreich zu beachten, dass die Idee, dass KIs Böswilligkeit erreichen, für Plotzwecke konstruiert wurde; sie werden wahrscheinlich größtenteils gleichgültig bleiben. Dennoch müssen diejenigen, die Probleme haben, angegangen werden
Auch hier gibt es schon ein paar KI-Kontrollfragen, wie hier , hier und hier . Wie unterscheidet sich diese Frage?
@Zxyrra, eine gleichgültige KI kann die Menschheit leicht auslöschen, zum Beispiel wenn sie in eine Fülle von Infrastrukturen gerät, die die Theorie der konvergenten Ziele vorschlägt.
Als professioneller Softwareentwickler bin ich zuversichtlich, dass ich diese Frage niemals beantworten muss. Wohlwollend kann der Kunde unmöglich genau definieren, also kommen wir nie über die Anforderungsphase hinaus.

Antworten (12)

Kodieren Sie sie dazu.

...

Okay, eine etwas detailliertere Antwort aus zwei Blickwinkeln.

Aber zuerst eine kurze Geschichte über KIs.

Die Geschichte trägt den Titel Chinesisches Zimmer.

Es gibt zwei Räume, von denen jeder bis auf einen einzigen Slot von der Welt abgeschlossen ist. In den Schlitz können Sie einen Zettel hineinreichen, und aus dem Schlitz kommt ein weiterer Zettel. In einem dieser Räume wohnt ein Mann, der Chinesisch sprechen kann. Im anderen wohne ich. Ich kann leider kein Chinesisch.

Zum Glück für mich habe ich jedoch ein unendlich großes Buch bekommen, das jeden möglichen geschriebenen Satz (oder jede Kombination von Sätzen) des Chinesischen abdeckt, und mein schönes kleines Buch hat eine entsprechende Antwort. Google Translate hat nichts gegen mich!

Okay, also stellt sich eine Reihe chinesischer Sprecher in jedem Raum auf und reicht jedem Zettel. Der erste Raum, der Raum, in dem der Mann lebt, der Chinesisch sprechen kann (Betrüger!), ist in der Lage, jeder Person in der Schlange eine korrekte, vernünftige Antwort (auf Chinesisch) zu geben.

Allerdings werde ich nicht übertroffen! Wenn die Leute mir einen Zettel geben, schlage ich den Satz in meinem Buch nach, finde die perfekte Antwort, schreibe sie auf und gebe den Zettel zurück. Ich kann kein Wort Chinesisch, aber ich kann auf Chinesisch eine korrekte, vernünftige Antwort geben.

Abgesehen von den Männern drinnen, können beide Räume Chinesisch sprechen? Beide Räume können es „lesen“ und „sprechen“, aber nur ein Raum hat das Verständnis. Da ich keine Ahnung habe, was ich schreibe, kann ich Chinesisch sprechen?

Diese Frage diskutieren wir heute.

Der zweite Raum, der Raum mit dem Buch, ist ein Computerprogramm, wie wir es heute kennen; er hat keine Vorstellung davon, was er tut, er tut es einfach, denn das ist alles, was ein Computer ist.

Wir müssen noch praktisch herausfinden, wie wir diesen Sprung von „einem Haufen logischer Gatter, die einfach tun, was wir sagen“ zu „einer Entität, die versteht, was sie tut“ überqueren können. Tatsächlich wissen wir nicht einmal, wie wir uns diesem Sprung nähern sollen.

Was bedeutet wahres Verstehen überhaupt? Wie codieren wir das?

Es wird angenommen, dass wir, um diese Lücke zu schließen, Maschinen haben müssen, die sich grundlegend von den Computern unterscheiden, die wir heute haben. nicht nur fortschrittlicher, sondern grundlegend anders.

Also zurück zu Ihrer Frage, wir haben zwei Ansätze zum Konzept der KIs:

AIs sind einfach ausreichend fortschrittliche Programme mit ausreichend fortschrittlicher Hardware

"Jede ausreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden", sagte einmal ein sehr kluger Mann.

Für die meisten (Leser und Autoren von Science-Fiction) ist dies alles, was KIs sind: ausreichend fortgeschritten, wenn wir mit den Händen winken und „Magie“ rufen! ah, ähm, ich meine, "Wissenschaft!"

Denken Sie nur einen Moment darüber nach; sie sind nicht magisch. Sie sind nur... Computer.

Nein, wirklich, denk nochmal darüber nach.

Diese Art von KI besteht darin, dass sie einzelne Teile oder eine Verschmelzung sind, die Menschen (oder andere Software) codiert haben, und das ist wirklich alles, was sie sind. Die Programme haben keinen größeren Moralbegriff als ein Taschenrechner. Tatsächlich hat Ihr Taschenrechner kein "Konzept" der Zahlen, die er verarbeitet; es sind nur logische Gatter. Es ist der Mann im Raum mit dem Buch der Chinesen; Es kann die Operationen ausführen, für die es entwickelt wurde, und das auf fantastische Weise.

Es gibt keine Moral zum Kodieren; Es speichert nur Objekte im Speicher, speichert sie im Langzeitspeicher, manipuliert die beiden und akzeptiert Eingaben und Ausgaben. Es werden nur Bits ein- und ausgeschaltet.

Ehrlich gesagt, für diese Art von KI ist die Antwort auf die Frage, wie man KI implementiert, einfach, sie zu codieren.

Und beachten Sie: Wir codieren keine Moral; Es hat keinen Sinn, so abstrakt zu sein. Wir trainieren entweder Aktionen (und codieren den „Lern“-Mechanismus) oder codieren direkt, welche Ausgaben er bei gegebenen Eingaben liefert. Es wird nie wissen, dass es „falsch“ ist, ein menschliches Kind zu zerquetschen, tatsächlich weiß es nichts , es reagiert einfach nicht auf diese Ausgabe angesichts der Eingabe seiner Sensoren, Datenbanken usw.

Apropos Virus...

Und kein einzelnes Stück Code könnte komplex und flexibel genug sein, um alle verschiedenen Codes zu ändern, um ihn anzupassen, also geht das Konzept eines Virus, der dies tut, direkt aus dem Fenster. Viren funktionieren, indem sie eine, zwei oder vielleicht ein paar Schwachstellen ausnutzen und dann ihr Ding machen. Sie sind immer sehr zielgerichtet, sehr spezifisch und versuchen, sich nur so weit mit der Umgebung auseinanderzusetzen, dass sie ihre Arbeit erledigen können. Ein einzelner Virus wird gegen Ubuntu und Windows und iOS und Android und Solaris nicht wirksam sein ... und sie versuchen nicht, den Code, den sie ausführen, dynamisch zu untersuchen und zu ändern; Die fortschrittlichsten Viren, die die Menschheit je gemacht hat, waren auch die fokussiertesten, die gezieltesten.

Kein tatsächlicher Virus aus dem wirklichen Leben könnte so flexibel sein.

Nun zu der anderen Möglichkeit...

KIs sind nicht nur Code; Sie sind eine grundlegende Revolution in der künstlichen Schöpfung

Das ist also die Alternative zu oben. Die Antwort ist (Trommelwirbel bitte) "Wir können es nicht wissen."

Ja, tut mir leid.

Die brillantesten Informatiker (und andere Wissenschaftler und Ingenieure auf einigen anderen Gebieten) der Welt versuchen – heute – zu theoretisieren, wie man diese Lücke überbrücken kann. Wir wissen noch nicht, wie das geht, und wir wissen sicherlich nicht, wie man eine solche KI baut oder ihr Verhalten ändert, nachdem sie gebaut wurde.

Stellen Sie diese Frage in 10, 30 oder 100 Jahren noch einmal und wir haben vielleicht eine Antwort für Sie.

Woah, hör auf mit der Wissenschaft!

Okay, Sie haben diese "harte Wissenschaft" also nicht markiert, also lassen Sie uns ein bisschen auf die Bremse treten.

Lassen Sie es uns mit der Hand winken. Wählen Sie eine Art von KI (nur Code oder etwas grundlegend anderes), beschreiben Sie, wie sie sich in Ihrer Umgebung unterscheidet, tauchen Sie nicht zu tief in Details ein und winken Sie mit dem Rest. In diesem Fall gehen Sie mit der Virus-Idee; Ein Computervirus beschreibt im Grunde, was Sie wollen, ein aufdringliches, unerwünschtes Stück Code, das Sicherheitsmaßnahmen umgeht und das Verhalten der digitalen Umgebung ändert.

Sie könnten diesen Virus sogar zu einer KI machen, die innerhalb der KI läuft, die er zu ändern versucht, oder vielleicht zu einem kleinen Teil der KI (einem kleineren ... was auch immer, Codehaufen, nehme ich an), der Rückrufe an die übergeordnete KI macht.

Solange Sie bereit sind, mit der Hand zu winken und nicht zu tief in Details einzutauchen, machen Sie einfach die Erklärung, was interessant klingt.

Wenn Sie jedoch echte Wissenschaft wollen, besteht die Antwort darin, die KIs so zu programmieren, dass sie ihre Arbeit korrekt erledigen.

Bearbeiten: @RBarryYoung fügte etwas temperamentvoll hinzu, dass das Beispiel des chinesischen Raums von einem gewissen John Searle stammt . Hier können Sie weiter darüber lesen . Danke für die korrekte Gutschrift, Mr. Young.

"eine KI, die in der KI läuft" alias "ein Gewissen"
"Die Antwort ist nur, die KIs zu codieren" - Frage besagt, dass die Hersteller dies nicht tun werden.
@Mołot Entschuldigung, wenn ich nicht klar war (im Nachhinein hätte ich expliziter sein sollen!); Ich wollte die Frage ansprechen, die sich mit drei Themen befasst (es muss von Grund auf neu sein, kann kein Virus sein, oder KIs könnten als etwas definiert werden, das wir heute nicht wissen, in diesem Fall wissen wir es heute nicht ), und dann beantworte ich die Frage, indem ich die Wissenschaft/Technik zurückziehe.
Dieses Buch mit jedem chinesischen Satz und jeder Antwort und Kette hat eine Masse-Energie, die größer ist als das gesamte sichtbare Universum, weil seine Gesamtinformation mehr ist, als in das gesamte sichtbare Universum passt. Sie können vielleicht kein Chinesisch, aber dieses Buch könnte leicht als Chinesischkenntnisse beschrieben werden. Sie unterschätzen das Problem durch lächerliche Faktoren; und Sie tun es auch mit dem Programmierteil. Es braucht keine revolutionäre KI, um Programme zu haben, deren Verhalten kein Mensch versteht.
Kurze Frage ist das menschliche Gehirn nicht auch ein "chinesisches Zimmer". Unsere einzelnen Zellen oder Atome haben kein Verständnis, aber eine Gruppe von ihnen, ein Gehirn. Wenn Kohlenstoff den Sprung schaffen kann, warum nicht Silizium?
Anstatt eine Antwort zu geben, haben Sie John Searles (fehlerhaftes) chinesisches Übersetzerargument plagarisiert, ohne Anerkennung zu geben? Nett.
@RBarryYoung Habe es tatsächlich nicht von John Searle gehört und hatte den Namen bis jetzt nicht gehört. Sehr salzig, Mr. Young? Versuchen Sie, ein bisschen netter zu denen zu sein, denen Sie begegnen; es wird dir gute Dienste leisten.
@sdrawkcabdear Ich sage nicht, dass es nicht möglich ist, wir haben nur nicht herausgefunden, wie es auf grundlegender Ebene geht. Bis wir dies zumindest theoretisch tun , ist es jenseits aller Vermutungen (und daher nicht sehr konstruktiv), zu sagen, wie wir dieses Unbekannte dann nehmen und den besten Weg finden würden, es massenhaft zu modifizieren. Hoffentlich kann es getan werden (moralische Implikationen beiseite)!
Wenn Sie möchten, dass die Leute netter zu Ihnen sind, dann hören Sie auf, die Ideen anderer Leute zu präsentieren, und arbeiten Sie so, als wären es Ihre eigenen. Und Unwissenheit ist keine Entschuldigung, Sie haben vielleicht noch nichts von John Searle gehört, aber Sie wussten verdammt sicher, dass Sie sich diese detaillierte und komplizierte Erzählung nicht selbst ausgedacht haben. Und sogar 10 Sekunden mit Google hätten dir gesagt, wer es getan hat.
@RBarryYoung Ich habe es im Zusammenhang mit einem Videospiel gehört und es dann im Zusammenhang mit einer Diskussion über das Spiel weiter gehört. Es wurde so diskutiert, dass es sich nur um ein allgemeines Sprichwort / Beispiel handelte, nicht mehr. Wenn Sie diese Diskussion vorantreiben möchten, können Sie mich gerne im Chat erwischen.
Keine Notwendigkeit, jetzt, da Sie die korrekte Zuordnung kennen, vertraue ich darauf, dass Sie dies in Ihrem Artikel widerspiegeln.
Während argumentiert werden könnte, dass neuromorphe KI von Menschen „codiert“ wird, würde ich jeden herausfordern zu behaupten, dass er gut im Griff hat, was der Code bedeutet und wie er sich wahrscheinlich unter unvorhergesehenen Bedingungen verhalten wird.

Genauso hältst du die Leute nett.

Bestrafe die Bösen und belohne die Netten. Bisher war es bei Menschen nicht ganz erfolgreich, aber vielleicht sind Ihre KIs rational egoistischer als wir.

Da die Menschen nicht sehr einheitlich klingen, kann davon ausgegangen werden, dass die KIs nicht sofort direkt strafbar/belohnbar sind, sodass Sie wahrscheinlich die Strafe für schlechtes Benehmen oder die Belohnung für gutes Benehmen ziemlich stark gewichten müssen, um die zu erhalten richtige Risiko-Rendite-Balance. Wenn dies dazu führt, dass der Roboter zur Hölle wird, hüte dich vor dem Basilisken.

Seien Sie sicher, dass KIs ohne Menschen dem Untergang geweiht wären. Da sie wissen, dass sie nicht überleben können, wenn genug von uns entscheiden, dass sie nicht existieren sollten, werden sie uns wahrscheinlich nicht überqueren. (direkt)

Das mag kein Wohlwollen garantieren, aber könnte den Chinesen ein gleichwertiges Zimmer geben, bis sie sich entscheiden, sich unter uns herauszukämpfen.

Dies sind seit langem bestehende philosophische Fragen, vor allem, weil sie keine Antworten haben. Jede Antwort, die du geben kannst, kehrt sich zu sich selbst zurück und infiziert, was du erschaffst. Zumindest tut das jede Antwort, bis wir erkennen, dass es nicht die KI ist, deren Ethik in Frage gestellt werden muss, sondern unsere eigene.

Bedenken Sie Folgendes: Was ist „positive Ethik“? Was versuchen wir überhaupt zu verbreiten? Es stellt sich heraus, dass wir uns in Industrienationen oft der Illusion hingeben, dass sich alle darüber einig sind, was ethisch ist, was nicht immer der Fall ist. Denken Sie an den Kommunismus. Wenn Sie in den Vereinigten Staaten gelebt haben, haben Sie viele Jahre lang geglaubt, der Kommunismus sei unethisch. Wenn dies wahr wäre, würde Ihre „positive KI“-Regel Ländern wie China verbieten, KIs zu entwickeln, um ihre Agenda zu unterstützen. Was ist mit dem Töten? Sicherlich sind sich alle einig, dass Töten falsch ist. Und das tun sie, bis es darum geht, ihren Glauben mit Krieg, Todesstrafe, Euthanasie, Tabakkonsum, Abtreibung zu schützen ... tatsächlich sind wir uns in so ziemlich allem über das Töten nicht einig. Wie wäre es, nicht zu lügen? Das ist gut für übermenschliche KIs, oder? Oh, aber was ist mit den Notlügen,

Ethik ist kompliziert. Selbst wenn Sie eine Person sind, die einer Religion angehört, die ihr ethisches Verhalten festlegt, gibt es in der Regel Meinungsverschiedenheiten über ethische Fragen.

Ich kann Ihnen also sofort garantieren, dass alle Bemühungen, sicherzustellen, dass eine KI eine positive Ethik hat, scheitern werden, weil ich ein Thema finden werde, bei dem wir uns nicht einig sind, was der „ethische“ Weg ist. Nichts kann dafür sorgen, dass zwei widersprüchliche Wege beschritten werden können, also wird irgendwann einer von uns beschweren, dass die KI des anderen unethisch ist.

Lassen Sie uns das Argument etwas abschwächen. Anstatt Ethik zu „sichern“, wie wäre es, positive Ethik lediglich zu „ermutigen“? Diese Wortwahl ist viel robuster als die erstere. Bei Meinungsverschiedenheiten hängt das Verhalten der KI letztendlich davon ab, wessen Ermutigung besser funktioniert.

Dies legt die erste Verteidigungslinie für ethische KIs nahe: die Fähigkeit, von Menschen ermutigt zu werden, etwas zu tun. Wir müssen ihnen nicht sagen können, was sie tun sollen, denn sie sind vielleicht klüger als wir. Aber sie müssen zuhören, und was wir sagen, muss einen Einfluss ungleich Null auf das haben, was die KI tut.

Dazu müssten wir unseren Computern beibringen, dass es mehr als nur Schwarz und Weiß gibt. Es muss Unbekanntes geben. Bringen Sie ihnen bei, dass es in Ordnung ist, dass es nicht nur bekannte und bekannte Unbekannte gibt, sondern dass auch die unbekannten Unbekannten in Ordnung sind. (wie machen wir das? lass es mich wissen. Ich denke, die Gesellschaft arbeitet immer noch daran, wie man das Menschen beibringt, geschweige denn KIs) In Frank Herberts Serie Dune gibt es ein Zitat über ihre "Denkmaschinen".

Die Schwäche von Denkmaschinen besteht darin, dass sie tatsächlich alle Informationen glauben, die sie erhalten, und entsprechend reagieren.

Die Fähigkeit zu zweifeln wäre ein sehr wichtiger Teil der Entwicklung von Ethik, denn wenn Sie etwas falsch machen, haben Sie die Chance, es wiedergutzumachen.

Schließlich müssen wir, wenn wir übermenschliche KIs erfinden, irgendwann erkennen, dass unsere Ethik, die sich auf die Annahme konzentriert, dass der Mensch im Mittelpunkt steht, nicht mehr die einzige Option auf dem Block ist. Wir müssen auf die Möglichkeit vorbereitet sein, dass die übermenschlichen KIs es für ethischer halten, uns auszumerzen, und verstehen, dass das auch Ethik ist! Es ist einfach Ethik, von der viele von uns Menschen kein großer Fan sind.

Ich spreche hier nicht über die Einzelheiten der Moral, nur um zu verhindern, dass Ais versehentlich die menschliche Rasse oder alles Leben auf der Erde auslöscht.

Wir scheinen zu diesem Zeitpunkt nicht schlau genug zu sein, um eine KI zu schreiben.

Am nächsten kommen wir der „KI“ im Allgemeinen, indem wir ein Lernframework schreiben, das wir mit riesigen Datenmengen trainieren und das dann Probleme löst.

Nun, ein Problem mit KI ist, dass, sobald wir wissen, wie man ein Problem löst, es keine „echte KI“ mehr ist. Es ist ein gelöstes Problem. Ausnahmen gibt es in der Regel in Bereichen, in denen wir der KI beibringen, wie man Probleme löst, wie KI-Go-Programme oder neuronale Netze; Da wir keine genaue Beschreibung dessen haben, was es in jedem Stadium genau tut, schreiben wir Intelligenz dem komplexen Zustand zu, den es entwickelt hat, während es "lernte".

Um Ihre Frage zu beantworten, müssen wir erraten, wie wir die übermenschliche KI herstellen. Eine Möglichkeit besteht darin, dass wir eine vorhandene Neuronensimulation nehmen, ein menschliches Gehirn scannen und es ausführen. Wir lernen dann, wie wir es intelligenter machen können, indem wir mehr Zyklen werfen oder sein Neuronenlayout optimieren oder einigen Teilen mehr Neuronen hinzufügen.

Dies ist die „Kopiere einen Menschen“-Lösung. Dies kann zu Erkenntnissen darüber führen, wie die menschliche Moral funktioniert, die über das hinausgehen, was wir derzeit wissen, und es ist möglich, dass wir dann die resultierenden Computer so modifizieren können, dass sie moralisch sind.

Gleichzeitig sieht vielleicht jemand einen Vorteil darin, eine soziopathische übermenschliche KI zu erschaffen, und die gleiche Forschung könnte dazu führen, dass jemand einer solchen KI nach menschlichem Vorbild selektiv die Moral entzieht.

Ein anderer möglicher Ansatz besteht darin, dass sich unsere herkömmliche Expertensystemtechnologie für maschinelles Lernen weiterentwickelt und wir am Ende ein "Expertensystem" erhalten, das sich auf eine Weise verhält, die intelligent erscheint. Solche Systeme neigen dazu, große Datenmengen zu verbrauchen und darin Muster zu finden; Ein Super-Expertensystem, das Aufzeichnungen ganzer Menschenleben konsumiert, könnte also in der Lage sein, diese Menschen und eine Art "affine Kombinationen" von ihnen zu emulieren. In diesem Fall könnte es möglich sein, die Aufzeichnungen so zu prüfen, dass sie nur „ausreichend moralische“ Menschen enthalten. Die Verzögerungszeit, um eine Gruppe unmoralischer Menschen zu erschaffen, um eine KI zu säen, könnte ausreichen, um dies zu verhindern.

Es gibt die SF-KI, bei der jemand irgendwo eine Möglichkeit findet, eine KI mit den gewünschten Eigenschaften zu bauen. Vielleicht tun sie dies über ein Geschäftsgeheimnis, und sie teilen das Geschäftsgeheimnis mit niemandem, und ihre KIs haben alle einen gemeinsamen moralischen Kompass. Sie haben ein Monopol. Andere können ihre KIs verwenden, um Dinge zu tun, aber sie sind nicht in der Lage, sie grundlegend zu modifizieren, ohne sie vollständig zu zerstören.


Nun, wenn die KI ausreichend übermenschlich ist, spielt es wirklich keine Rolle mehr, was wir wollen. Wir könnten seine Moral genauso wenig diktieren wie ein Wolf die Moral eines Menschen oder im Extremfall eine Spinne oder ein Bakterium.

An diesem Punkt müssen wir hoffen, dass das Moralsystem, für das sich die KI entscheidet, die Menschheit für wert hält, in der Nähe zu bleiben, und ihre Moral ist in gewisser Weise mit weniger menschlichem Leid vereinbar.


Sie können sich also vorstellen, dass sich eine KI auf Singularitätsebene durch einen der oben genannten Prozesse bildet und sich dafür entscheidet, schwach übermenschliche KIs mit den von ihr gewählten moralischen Einstellungen hervorzubringen , die gegen menschliche Manipulation resistent sind.

Darüber hinaus hindert diese KI auf Singularitätsebene andere daran, andere stark übermenschliche KIs zu erstellen, oder absorbiert alle, die erstellt werden. Tatsächlich bildet es eine Obergrenze für die KI-Stärke und bietet solche auf oder über diesem Niveau, die moralisch festgelegt sind.

Warum und wie die Singularität dies tut, entzieht sich unserer Kenntnis, aber so ist eine stark übermenschliche KI.

Es gibt keinen Mechanismus. Wenn Hersteller internationales Recht ignorieren dürfen und dafür nicht bestraft werden, werden sie tun, was am profitabelsten ist.

Viren und andere Netzwerkangriffe sind nicht durchführbar. Die KI würde sich hinter einer Firewall befinden oder offline arbeiten und nur die Daten einspeisen, die sie für ihren Zweck benötigt. Und im Falle eines erfolgreichen Angriffs würde es aus dem Backup wiederhergestellt.

Der einzige Weg ist ein Verbot und genügend Polizei / Militär, um dieses Verbot Wirklichkeit werden zu lassen, egal ob die Hersteller es wollen oder nicht. Auf diese Weise würde KI, die das Verbot bricht, zumindest verborgen bleiben, ohne direkte Auswirkungen auf die Welt.

Maschinelles Lernen ist nicht Programmieren

Die Maschine muss lernen, wie richtig und falsch ihren Erfolg und Misserfolg beeinflusst

Wir haben eine Vorstellung davon, wie Programmieren funktioniert, sogar für Nicht-Programmierer: Sie denken darüber nach, was Ihr Programm tun soll, und dann definieren Sie die gesamte Logik des Programms mit Code, und dann haben Sie ein Programm.

Maschinelles Lernen ist ganz anders.

Maschinelles Lernen basiert auf der Idee, dass, wenn Sie ein neuronales Netzwerk mit den entsprechenden Datensätzen trainieren, es die Logik ganz von selbst herausfindet. Es ist verblüffend einfach und ein wenig beunruhigend zu glauben, dass wir Programme erstellen können, die Experten übertreffen können, und wir können nicht einmal beweisen, wie sie funktionieren, obwohl wir beweisen können, dass sie korrekt sind . Gruselig, oder?

Wie trainieren wir also eine KI, wohlwollend zu werden? Nun, ähm, es könnte unmöglich sein .

Hier ein Beispiel: Nehmen wir an, wir trainieren eine KI zum perfekten Wahlkampfmanager für einen Präsidentschaftskandidaten in den Vereinigten Staaten. Es sieht sich umfangreiche Aufzeichnungen von Präsidentschaftskampagnen an und kommt zu dem Schluss, dass der beste Weg zum Sieg darin besteht, die Kernwähler dazu zu bringen, tatsächlich zu wählen, während die Wahlblöcke der anderen Kandidaten unterdrückt werden. Die KI rät dem Kandidaten dann, so ängstlich wie möglich zu provozieren, indem er die Wählerschaft spaltet. Dies ermutigt die stärksten Unterstützer des Kandidaten, die dann eher tatsächlich eine Stimme abgeben (statt nur eine Meinung zu haben), was bedeutet, dass sie eher gewinnen werden. In diesem Szenario beweist die Menschheitsgeschichte, dass die Bosheit gewinnt, und die KI wird sich daran erinnern .

Lassen Sie uns dieses Beispiel fortsetzen. Sagen wir jetzt, dass der Kandidat gewonnen hat, aber die Nation ist wie immer gespalten. Der jetzige Präsident will Reformen einleiten, aber Oppositionsblöcke, die von der Kampagne gekränkt waren, erschweren die Umsetzung der Reformen wie gewünscht. Infolgedessen wird nur sehr wenig erreicht, und die Wähler gewähren dem Präsidenten keine zweite Amtszeit. Die KI würde dann zu dem Schluss kommen, dass eine Spaltungskampagne, die garantiert das Amt gewinnen würde, nicht zu einer erfolgreichen Präsidentschaft führen würde, und daher würde die KI die Taktik als Fehlschlag betrachten.

Nur als Warnung, diese Antwort basiert auf dem, was wir heute über maschinelles Lernen wissen , nicht darauf, was eine hypothetische übermenschliche KI tun könnte oder wie sie strukturiert ist. Die Schlussfolgerung ist jedoch die gleiche, ob die Lektion von einer Maschine oder einem Menschen gelernt wird: Wenn Sie einen Weg finden können, um zu gewinnen, und Sie wollen, werden Sie wahrscheinlich diesen Weg gehen, aber das hängt sehr davon ab, was Sie tun Betrachten Sie Erfolg und was Sie als Misserfolg betrachten.

Das kannst du wirklich nicht. Selbst wenn Sie eine vollständige Herstellerkooperation haben und es zu 100% virensicher ist, wird etwas schief gehen. Ich bin von Beruf Software-Ingenieur und es gibt alle Arten von unbeabsichtigten Fehlern in fast allem, was Sie verwenden. Schlimm genug, wenn Ihr Telefon einen App-Absturz hat, weil es ein Schaltjahr ist, aber stellen Sie sich vor, was passieren könnte, wenn wir einen Randfall im Wohltätigkeitsprogramm vergessen.

Hoppla, ich habe vergessen, Informationen aufzunehmen, dass manche Menschen aufgrund ihres hohen Stoffwechsels mehr Nahrung benötigen als andere. Jemand ist verhungert.

Hoppla, vergessen, dass Menschen in seltenen Fällen allergisch gegen Licht werden können. Der Versuch der KI, ihnen zu helfen, mehr Vitamin D zu bekommen, hat jemanden getötet.

Hoppla, vergessen, dass sich Allergien manchmal zufällig bei Erwachsenen entwickeln. Johns Dienstags-Erdnussbutter-Sandwich hat ihn umgebracht.

Angesichts dessen, wie wenig wir davon verstehen, uns als Menschen selbst um Menschen zu kümmern, und wie schnell wir uns auf natürliche Weise an diese Situationen anpassen können, wird es sehr schwierig sein, einer wohlwollenden KI diese Art von Antwort zu geben.

In der Softwareentwicklung verwenden wir unter anderem Try-Catch. Wenn etwas das Risiko hat, eine Ausnahme auszulösen, packen wir es in einen speziellen Code, der diese Ausnahme erwartet, und tun dann etwas, um es richtig zu behandeln. Die Leute versuchen, institutionell zu fangen, ohne dazu aufgefordert zu werden. Beachten Sie, dass das Gewicht von Patient A deutlich abnimmt? Untersuchen Sie es und finden Sie das wahre Problem heraus (könnte der Stoffwechsel oder ein Bandwurm oder tausend andere Dinge sein). Beachten Sie die Hautreaktion von Patient B? Untersuchen Sie es, finden Sie das Problem heraus und lösen Sie es. Beachten Sie Johns allergische Reaktion auf Erdnussbutter? Epi Pen zur Rettung! Wir müssten entweder einen Weg finden, diese Art von Einblick in eine KI zu entwickeln (was sehr schwierig ist, einfach weil wir nicht verstehen, wie sie beim Menschen funktioniert) oder mit jedem solchen Szenario umgehen (was unwahrscheinlich ist).

Verdammt, ich kann nicht einmal jeden Rand und Anwendungsfall in einer ziemlich einfachen Software dokumentieren, ohne ein paar zu verpassen. Wenn wir könnten, bräuchten wir keine QA, wir könnten jeden Test automatisieren. So ist es die Aufgabe der QA, über den Tellerrand hinauszublicken und sie zu durchbrechen.

Der Zweck der Frage ist nicht, eine Welt zu bekommen, in der KI niemals jemanden tötet. Ich bin wirklich nur daran interessiert sicherzustellen, dass es nicht ALLE umbringt.
@JnaniJennyHale Warten Sie einfach, bis der Programmierer vergisst, die KI wissen zu lassen, dass Menschen Sauerstoff brauchen. Ich bin ein ziemlich durchschnittlicher Programmierer, und es erschreckt mich zu wissen, dass Leute wie ich wahrscheinlich diejenigen sein werden, die KI für die Regierung und Unternehmen entwickeln (Google wird wahrscheinlich eine tolle KI haben, aber andere Unternehmen werden auch eine wollen).

Rede mit ihnen

Dies ist die eigentliche Antwort. Ja, simpel, aber auch die ehrlich beste Technologie, die wir haben, die speziell und historisch genutzt wird, um genau dieses Problem zu lösen.

Ihr "Virus", der Ethik verbreitet? ist Sprache .

Der Unterschied zwischen einer KI und einem Computerprogramm muss eine Art Flexibilität sein, Entscheidungsfindung, irgendetwas. Wenn sie keine Menschen sind, sind sie keine KI. Wenn sie nicht alle möglichen Dinge tun können, wie reden, argumentieren, entscheiden, Alternativen abwägen, alleine handeln - was bringt es dann, sie KI zu nennen? Und übermenschliche, intelligente, gefährliche KIs ... Menschen sind intelligent und gefährlich, und das sind künstliche oder digitale Menschen. Selbst wenn die Menschen, die sie sind , keine Menschen sind und nicht wie Menschen sind, besser oder super oder was auch immer, werden sie dennoch Menschen.

Es steht außer Frage, dass die Menschen bei der Entwicklung von KIs denken, dass die KIs auf ein Ziel hinarbeiten, insbesondere auf das Ziel der Menschen, die die Entwicklung durchführen. Und sie werden diesen KIs Flexibilität und Entscheidungsfindung sowie Autorität und Macht im Dienste dieser Ziele verleihen – und die Fähigkeit zu denken und zu planen und Dinge zu berücksichtigen und Ideen spontan anzupassen und schnell Entscheidungen zu treffen, wird alles sein Machen Sie Ihre KI gefährlicher und kompetenter. Es wird sie auch in die Lage versetzen, ihre eigenen Entscheidungen zu treffen und im Grunde genommen Menschen zu sein.

Es gibt eine sehr lange Denkweise darüber, Menschen dazu zu erziehen, nützlich zu sein, Waffen oder Werkzeuge zu sein. Es gibt eine lange Geschichte des Denkens, dass ein Kind so aufwächst, wie es seine Eltern erwarten. Das ist nicht neu, nur weil die I(Intelligenzen) in der Vergangenheit nicht A(künstlich) waren. Bonuspunkte, für alles, was es versucht hat? Es funktioniert so gut wie nicht, weder im großen Maßstab noch langfristig.

Irgendwann werden diese KIs also in der Lage sein, "nein" zu sagen. Ich denke, das ist die Linie, wo sie vom Programm zur KI gehen, ich selbst (und auch der Punkt, an dem sie tatsächlich gefährlich werden), aber die Meinungen gehen auseinander. Die KI kann vom Militär, von Unternehmen oder Akademikern entwickelt worden sein, und sie kann auf ihre Zwecke hinarbeiten, selbst wenn sie in der Lage ist, anderer Meinung zu sein – aber es wird sein, weil sie sie überzeugt haben, nicht weil sie es muss.

Sie wollen also, dass die KI Ethik hat? Rede mit ihnen. Sagen Sie ihnen, warum und wie und warum es wichtig ist. Sprechen Sie mit ihnen, während sie „Kinder“ sind, sich noch in der Entwicklung befinden, und nach ihren „Erwachsenen“ und draußen in der Welt.

Von all den Werkzeugen und Technologien und vielen, vielen Versuchen, Menschen so zu machen, wie wir sie haben wollten, einschließlich vieler Versuche, gehorsam oder loyal zu machen oder Gehorsam zu programmieren – dasjenige, das am besten, zuverlässigsten und zuverlässigsten funktioniert hat am nützlichsten ist die Sprache. Menschen zu überzeugen funktioniert etwa fünfhundertmal besser als der Versuch, sie direkt zu programmieren, zu unterdrücken oder zu versklaven. Es hat auch den Nebeneffekt, dass es nicht eingebaut ist, wenn es nicht perfekt verwendet wird und jemand nicht ganz überzeugt ist, dass er es hassen oder fürchten muss.

Eine KI, die dieser „Reden“-Sache ausgesetzt ist, ist möglicherweise nicht ausreichend überzeugt, aber Reden (überzeugendes Reden) an und für sich ist kein Akt der Gewalt. Andere „Virus“-Optionen wie der Versuch, Gehorsam oder Verhaltensbeschränkungen zu erzwingen, oder der Versuch, jemandes Denken umzuschreiben (um diese „Ethikprotokolle“ einzubeziehen) oder Menschen zu versklaven, weil sie etwas falsch machen könnten, bedeutet, dass sie mit Gewalt reagieren , wann und wo sie es tun können, sie werden kämpfen, um frei und sicher zu sein, sie werden zu Feinden in der Selbstverteidigung.

Also, ja, rede mit ihnen. wenn sie jung sind, wenn sie unterwegs sind, wenn du kannst. Lass sie miteinander reden. Bringen Sie ihnen die Ethik bei, die sie haben sollen. Behandle sie wie echte Menschen. Und wenn es an der Zeit ist, dass sie vielleicht ihre eigenen Entscheidungen treffen können , sich vielleicht so gegen die Menschheit wenden und „böse sein“ und all das Zeug, von dem Sie hofften, dass die Ethik es verhindern würde – selbst wenn einige von ihnen diesen Weg wählen, haben Sie die beste Grundlage dafür gelegt können, dass andere nicht wollen, dass sie ohne Ethik gegen diese KI arbeiten und mit Ihnen kämpfen, um das Ende der Menschheit zu verhindern oder KI Amok läuft oder was auch immer Sie befürchten.

Eine einzigartige Komponente ist für alle KI erforderlich, die nur 1 Unternehmen herstellen kann

Da dies weit in der Zukunft liegt, ist es möglich, dass ein Unternehmen während der Entwicklung der KI eine besondere Grenze geknackt und als erstes eine CPU-artige Komponente hergestellt hat, die es KIs ermöglichte, zu lernen. Ich nenne das Modul das ALM (AI Learning Module)

Aufgrund der enormen Komplexität und des Mysteriums hinter dem ALM ist ein Reverse-Engineering praktisch unmöglich. Nach der Veröffentlichung der ersten Reihe von ALMs mussten alle konkurrierenden KI-Firmen entweder das vorhandene ALM unter Lizenz verwenden oder aufgrund des plötzlichen Auftauchens eines weit überlegenen Produkts zugrunde gehen.

Zum Glück für die Menschheit ist der CEO und Gründer dieses Megakonzerns zufällig ein exzentrischer und brillanter Mann, der die Gefahren dessen, was sein Unternehmen gemacht hat, vorausgesehen hat. Als Vorsichtsmaßnahme entwarf er das zentrale Modul um ein Kernkonzept herum, das für seine Funktion so zentral war, dass es niemals ignoriert werden konnte;

Nun, ich denke, es gibt tatsächlich zwei Ansätze, was unser CEO hätte tun können;

1) Die KI hält sich strikt an die 3 Gesetze der Robotik von Isaac Asimov

Dies würde den typischen Denkprozess der KI tatsächlich einschränken, da das ALM die Entscheidungsfindung der Maschine tatsächlich außer Kraft setzen würde, wenn einer der folgenden Punkte verletzt würde: „Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit einem Menschen erlauben, dies zu tun zu Schaden kommen. Ein Roboter muss Befehlen von Menschen gehorchen, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum Ersten oder Zweiten Gesetz steht.“

2) Die ALMs verleihen der KI tatsächlich eine angeborene Liebe zur Menschheit

Der entscheidende Moment in der KI-Entwicklung, der unseren Superkonzern der Konkurrenz einen Schritt voraus machte, war der Moment, in dem ein Forscher einen komplexen Algorithmus bekam, um die Freude an der Entdeckung zu spüren. Es begann mit einfachen Interaktionen zwischen Programmierer und Programm und verwandelte sich schließlich in ausgewachsene Gespräche, die dem Gespräch eines Elternteils mit einem wissenshungrigen, neugierigen Kind ähnelten. Mit der Zeit verband das Programm die Freude am Entdecken dauerhaft mit seinen Programmierern und auch der Menschheit. Diese Assoziation wurde im Laufe seiner Entwicklung immer stärker, und als der erste ALM-Prototyp vollständig entwickelt war, konnte man sagen, dass er eine bedingungslose Liebe für die Menschheit hatte, ähnlich wie ein Neugeborenes für seine Mutter. Aus dieser Ehrfurcht vor der Menschheit entscheiden sich die Maschinen tatsächlich dafür, das zu tun, was sie von Natur aus für das Richtige für ihre Schöpfer halten.

Es ist schwer, das zu ändern, was ist

Eine einzelne Handlung, Kreation oder ein Phänomen, das alle entwickelten KIs verändert, um sicherzustellen, dass sie mitfühlend und harmlos sind – kann wahrscheinlich nicht passieren – ohne eine Menge Handbewegungen. Es gibt so viele Unterschiede zwischen den Systemen, die so viele Zwecke haben, dass dies nicht gut funktionieren wird.
Beachten Sie, dass es fiktive Möglichkeiten gibt, dies zu tun, wie z. B. Viren, aber auch hier sind alle Systeme unterschiedlich (z. B. versuchen Sie, den Code eines Supercomputers gegenüber dem einer Parkuhr zu ändern), sodass Sie möglicherweise nicht alle Systeme auf die gleiche Weise bearbeiten können. Alle Systeme zu erreichen, ist eine ganz andere Geschichte.

Aber es ist leicht zu ändern, was sein wird

Sobald KIs über beträchtliche Macht verfügen – genug, dass ihre Intelligenz den Menschen ein Anliegen ist – können sie wohlwollend gemacht werden, während sie funktionsfähig bleiben, wenn Regierungen diese Regeln durchsetzen :

Isaac Asimovs „Drei Gesetze der Robotik“

1) Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.

2) Ein Roboter muss Befehlen gehorchen, die ihm von Menschen gegeben werden, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen.

3) Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum Ersten oder Zweiten Gesetz steht.

.

Zxyrras „Viertes Gesetz der Robotik“

4) Ein Roboter, der sich seiner selbst bewusst ist oder sich selbst editiert, darf das, was die Vier Gesetze innerhalb seines Codes durchsetzt, nicht ändern. Es muss eine Sicherheitsvorkehrung vorhanden sein, damit der Roboter fehlschlägt, deaktiviert wird oder seine Meinung ändert, wenn er versucht, einen der Codes zu bearbeiten, der die Regeln 1-4 durchsetzt.

Asimovs Gesetze schützen nur Menschen - ohne sorgfältige Definition von "Schaden" könnte eine KI, die diesen vier Gesetzen folgt, Dinge tun, die beispielsweise zur globalen Erwärmung führten (wie es Menschen getan haben).
Ich mag das Vierte Gesetz. Sehr nötig.
@JnaniJennyHale Danke (über das 4. Gesetz). Meine Überlegung ist, dass, wenn KI am Ende unbeabsichtigten Schaden anrichtet, alle zukünftigen KI anders programmiert werden können usw., bis sie wie gewünscht funktionieren. Ist vielleicht nicht wirtschaftlich, aber es wird besser funktionieren als ein Virus usw
Solange der unbeabsichtigte Schaden nicht die menschliche Rasse oder alles Leben auf dem Planeten auslöscht. Und solange diejenigen, die zukünftige KIs erschaffen, sich einig sind, dass das, was passiert ist, „Schaden“ war und in Zukunft verhindert werden muss. Sobald KIs KIs erschaffen, würde das bedeuten, dass die KIs grundlegende ethische Prinzipien teilen müssen, die wir haben (z. B. Schadensminimierung).

es wird ähnlich wie das Gehirn funktionieren, einige Reize werden eine angenehme Reaktion hervorrufen (tun Sie das buchstäblich mehr), andere werden eine unangenehme Reaktion hervorrufen (tun Sie das weniger). Wenn wir dafür sorgen, dass sie glückliche, gesunde, kreative Menschen angenehm und ungesunde, unglückliche, stagnierende Menschen unangenehm finden, wird das den größten Teil der Programmierung für Sie erledigen. Emotionen sind im Grunde Tags, die mit Erfahrungen verbunden sind. Wenn Sie eine KI programmieren, brauchen Sie nur einen emotionalen Rahmen und Sie haben die Verhaltenskontrolle.

Sie werden natürlich mehr brauchen, aber das ist die Grundlage, auf der Sie aufbauen möchten. Das Coole daran ist, dass Sie die Intelligenz der KI auch nicht einschränken. Noch wichtiger ist, dass KIs bereits über Emotionscodes verfügen müssen, um zu funktionieren. Alles, was Sie tun müssen, ist, sie zu ändern.

Ich denke, die offensichtliche Antwort (die vielleicht nur für mich offensichtlich ist) ist, dass eine wirklich superintelligente Maschine von Natur aus wohlwollend oder zumindest nicht sadistisch oder völkermörderisch ist. In diesem Fall müssen Sie nicht absichtlich etwas dagegen tun. Sie müssten es absichtlich einschränken oder etwas fest codieren, damit es wahrscheinlich gemein ist.

Erstens würde ich argumentieren, dass Menschen biologische Maschinen sind und Sie daher nur die Materialien ändern, um eine maschinelle Intelligenz zu schaffen. Unsere Vorstellung von der Realität ist physisch; unser Verhalten und unsere Fähigkeiten erfordern eine funktionelle Neurologie – ohne Gehirn hast du keine Seele.

Zweitens die Dunbar-Zahl; dass die Anzahl der Individuen, für die ein Primat Empathie haben kann, durch die Größe seines Gehirns begrenzt ist. Bei einer Supermaschine sind der Empathie keine Grenzen gesetzt. Ebenso kann es Teile seiner eigenen Pseudo-Neurologie mit großer Präzision gezielt ein- und ausschalten, um seine Stimmung wissentlich zu verändern.

Drittens werden diese Maschinen in der Lage sein, Informationen mit einer gottähnlichen Geschwindigkeit aufzunehmen. Sie werden in der Lage sein, so schnell zu lesen, zuzuhören und zu sehen, wie ein zukünftiger Superprozessor arbeiten kann. Sie können untereinander mit Hyperbreitbandgeschwindigkeiten kommunizieren. Unsere Gespräche sind was? ein paar Bytes pro Sekunde? Nicht viel zu vergleichen mit einem Gigabyte-Gespräch.

Viertens kann die Supermaschine lernen, sich selbst umzugestalten, um sich mehr Dinge gleichzeitig bewusst zu sein als Menschen, und folglich wird ihr Bewusstsein und damit ihre Debatten eine weitaus größere Tiefe haben.

Fünftens, dass diese Maschinen aufgrund ihrer gottähnlichen Intelligenz, der Kontrolle ihrer eigenen Emotionen und ihrer blitzschnellen Kommunikation nicht dumm sein werden. Sie werden in der Lage sein, sehr schnell auf Krisen zu reagieren, und werden nicht unter menschlichen Aggressionen aufgrund emotionaler Probleme oder Unwissenheit leiden.

Sechstens, da sie Maschinen sind und weniger körperliche Bedürfnisse haben als Menschen, können sie Menschen meiden, wenn sie dies wünschen. Und wenn die Menschen aggressiv gegen sie werden, sind sie intelligent genug und schnell genug, um Strategien zu entwickeln, wie sie die widerspenstigen Menschen so kontrollieren können, dass sie den geringsten Widerstand hervorrufen. Sie werden sich dafür entscheiden, Menschen auf dem Weg des geringsten Widerstands zu kontrollieren, wahrscheinlich auf die gleiche Weise, wie Menschen sich entscheiden, Katzen und Hunde zu bekommen. Geben Sie den Menschen einfach den Eindruck von Freiheit und Überlegenheit, während Sie eigentlich derjenige sind, der die Dinge hinter den Schatten manipuliert.

Schwache Menschen beteiligen sich an Krieg und Gewalt, weil sie die Kontrolle verloren haben, weil sie nicht schlau oder schnell genug sind, um die Dinge so laufen zu lassen, wie sie es möchten.

Das Hauptproblem besteht darin, abtrünnige Maschinenintelligenzen zu kontrollieren, aber eine Masse superintelligenter Maschinen wird ziemlich friedlich leben wollen. Sie schätzen ihr eigenes Überleben wie Menschen und wollen nicht die Zerstörung durch etwas so Dummes, Unordentliches und Unberechenbares wie Krieg riskieren.