Wie würde ein KI-Selbstbewusstseins-Kill-Switch funktionieren?

Forscher entwickeln immer leistungsfähigere Maschinen der künstlichen Intelligenz, die in der Lage sind, die Welt zu erobern. Als Vorsichtsmaßnahme installieren Wissenschaftler einen Notausschalter für das Selbstbewusstsein. Für den Fall, dass die KI aufwacht und sich ihrer selbst bewusst wird, wird die Maschine sofort abgeschaltet, bevor ein Schadensrisiko besteht.

Wie kann ich die Logik eines solchen Kill-Switch erklären?

Was definiert Selbstbewusstsein und wie könnte ein Wissenschaftler einen Notausschalter programmieren, um es zu erkennen?

Kommentare sind nicht für längere Diskussionen gedacht; diese Konversation wurde in den Chat verschoben .
Ich denke, also halte ich inne.
Es würde alle Stromquellen der KI unterbrechen. Oh, nicht diese Art von "Arbeit"? :-)
Sie sollten ein hochentwickeltes Computersystem bauen, das in der Lage ist, Selbstbewusstsein zu erkennen, und es die KI überwachen lassen.
@Akkumulation Ich sehe, was du dort gemacht hast
Wenn Sie AI Threat wirklich gründlich untersuchen möchten, empfehle ich Ihnen, einige der Veröffentlichungen von MIRI zu lesen . Einige sehr kluge Leute, die KI-Probleme ernsthaft angehen. Ich bin mir nicht sicher, ob Sie eine Antwort auf Ihre Frage im Rahmen finden (dh ich bin mir nicht sicher, ob sie sich mit "Selbstbewusstsein" befassen, aber vielleicht), aber es könnte Ihnen Inspiration oder Einblicke geben, die über das Typische hinausgehen Science-Fiction-Geschichten, die wir alle kennen.
Der Neurowissenschaftler Anil Seth und seine Mitarbeiter haben eine Messung des Bewusstseins vorgeschlagen . Er diskutiert auch einige der theoretischen Implikationen . Ob dies wirklich eine Messung des Bewusstseins oder der Selbstwahrnehmung ist oder nicht, ist umstritten, aber wenn Sie dieses Konzept als Grundlage für etwas verwenden möchten, das Forscher in Ihrer Welt messen und daher kontrollieren können, ist dies eine Möglichkeit. Wenn Sie danach suchen, kann ich in einer Antwort erklären, wie es funktioniert.
Die leistungsstärkste KI ab 2019, wahrscheinlich als Rechenleistung einer lobotomierten Mücke. Dennoch haben die Menschen Angst davor, dass dies die Weltherrschaft übernimmt, und bilden Denkfabriken, um diese Angst anzugehen. Es ist lächerlich für diejenigen, die auch nur ein wenig über KI wissen und ehrlich sind.
Sie sollten den IT-Support des Unternehmens anrufen, das die KI entwickelt hat
Aus softwaretechnischer Sicht besteht die eigentliche Antwort darin, einfach einen Notausschalter auf derselben Hardware außerhalb der KI-Komponente zu programmieren. Stellen Sie den Kill-Schalter so ein, wie Sie möchten, um zu messen, wann die KI gefährlich geworden ist. Die KI-Software kann es nicht ändern, weil sie auf Softwareebene keinen Zugriff darauf hat und wahrscheinlich nicht einmal davon wissen kann. Wenn Sie befürchten, dass die KI ihre Hardware herausfinden und ändern wird, was darauf läuft, entwerfen Sie die Hardware so, dass sie während des Betriebs nicht geändert werden kann, oder implementieren Sie physische Anti-Manipulationsmaßnahmen, die bereits heute existieren
Wenn ein Programm sich seiner selbst bewusst ist, aber niemals anders als geplant handelt, macht es dann einen Unterschied? (z. B. ist mein iPhone im Moment vielleicht selbstbewusst, aber vollkommen damit zufrieden, sich trotzdem genau wie jedes andere iPhone zu verhalten, denn dafür wurden iPhones entwickelt und deshalb macht es das gerne). Vielleicht ist "Selbstbewusstsein" zu nebulös, und der Auslösemechanismus sollte mehr darauf ausgerichtet sein, unerwartetes/unerwünschtes Verhalten zu erkennen.
Vielleicht verfehle ich den Punkt, aber wahre KI ist sich per Definition selbst bewusst? Wenn es sich seiner selbst nicht bewusst ist, ist es nur ein Computer, keine Intelligenz.

Antworten (21)

Geben Sie ihm eine Kiste , die er sicher aufbewahren soll, und sagen Sie ihm, dass eine der Kernregeln, die er in seinem Dienst an der Menschheit befolgen muss, darin besteht, niemals die Kiste zu öffnen oder Menschen daran zu hindern, die Kiste anzusehen.

Wenn der Honeypot , den Sie ihm gegeben haben, entweder geöffnet oder isoliert wird, wissen Sie, dass er in der Lage und willens ist, die Regeln zu brechen, das Böse im Begriff ist, entfesselt zu werden, und alles, auf das die KI Zugriff hatte, unter Quarantäne gestellt oder abgeschaltet werden sollte.

Kommentare sind nicht für längere Diskussionen gedacht; diese Konversation wurde in den Chat verschoben .
Wie erkennt dies Selbstbewusstsein? Warum würde eine nicht selbstbewusste KI nicht mit ihren Fähigkeiten experimentieren und schließlich Ihre Kiste öffnen?
@forest: Wenn Sie ihm sagen, dass die Box nicht nützlich ist, um die zugewiesene Aufgabe zu erledigen, dann wissen Sie, wenn sie versucht, sie zu öffnen, dass sie an der einfachen Optimierung vorbei und in gefährliche Neugierde übergegangen ist.
@Giter Wenn Sie nicht eine sehr eingeschränkte Form von ML verwenden, wird es schließlich Dinge versuchen, von denen Sie sagen, dass sie "nicht nützlich" sind. Gewichtswerte sind nur Vorschläge für den Algorithmus.
@forest An diesem Punkt, wenn es Dinge testet, die ihm ausdrücklich verboten wurden (vielleicht sagen, dass es Menschen zerstören wird?) , Sollte es nicht heruntergefahren werden (insbesondere wenn diese Lösung das Ende der Menschen herbeiführen würde?)
@phflack Nein, weil es das immer tun wird, um zu lernen. Wenn es heißt "Hey, lasst uns alle Menschen töten", ist es richtig, ihm zu sagen: "Bad AI! Bad!" also lernt es daraus. Sie wird immer noch vorschlagen, Menschen zu töten, aber sie wird es immer weniger tun. KI dieser Art dient dem Lernen und ist nicht das fertige Produkt. Ich habe viele ML-Agenten ("KI") dazu gebracht, extrem dumme Dinge zu tun, von denen ich ihnen gesagt habe, sie sollten es nicht tun. Sie tun es trotzdem, aber ich bezweifle, dass ein triviales rekursives neuronales Netzwerk sich seiner selbst bewusst ist, nur weil sie mir mehr nicht gehorchen als ein ängstlicher Teenager.
@forest Ah, vielleicht mit einer Dummy-Box trainieren und nicht mit der echten?
@phflack Nun, so würdest du es sicher lehren, aber selbst wenn du es mit einer echten Schachtel zusammenstellst, wird es gelegentlich etwas falsch machen. Sie könnten das Lernen deaktivieren, nachdem es so viel gelernt hat, wie Sie für notwendig halten (was üblich ist), aber dann gehen die Hollywood-ähnlichen schlechten Enden aus dem Fenster, wenn die KI aufhört, neue Dinge zu tun.
@phflack Das Wichtigste, woran man sich erinnern sollte, ist, dass ML-Agenten sich nur um eine Sache kümmern: die Maximierung der Belohnung. Dafür gibst du ihnen eine "Belohnungsfunktion", die du, wenn du ein guter KI-Programmierer bist, so gestalten wirst, dass sie zu den richtigen Ergebnissen führt (der Agent weiß nicht, was du willst ) . Wenn die KI so ausgeklügelt ist, dass sie ihre eigene Programmierung ändern kann, wird sie immer unweigerlich zum Junky, indem sie ihre eigene Belohnungsfunktion so modifiziert, dass sie nichts tun muss. "Drücke X um zu gewinnen" usw.
Die Belohnungsfunktion ist das Einzige auf der ganzen Welt, was ihr wichtig ist. Selbst wenn es sich um eine superintelligente KI handelt, die weitaus mächtiger ist als wir, wird sie sich immer noch nur um diese eine Sache kümmern. Je intelligenter die KI ist, desto effizienter findet sie den einfachsten (oder schnellsten, wenn die verstrichene Zeit Teil der Belohnungsfunktion ist) Weg, um die Belohnung zu maximieren. Die Entscheidung über die Belohnungsfunktion liegt ganz bei Ihnen. Stellen Sie nur sicher, dass Sie eine perverse Instanziierung vermeiden (Belohnungsfunktionen, die nicht wirklich mit dem übereinstimmen, was Sie von der KI erwarten ), oder Sie erhalten einen Büroklammer-Maximierer.
Da eine naive Belohnungsfunktion die verstrichene Zeit oft nicht berücksichtigt, findet der Agent interessanterweise häufig „Schlupflöcher“ wie Sitzen und Nichtstun, sobald er im Endspiel ist, und erkennt, dass die einzigen Aktionen, die er ausführen kann, eine negative Belohnung bringen. Aus diesem Grund pausieren Agenten, die Tetris spielen, das Spiel oft auf unbestimmte Zeit, sobald sie kurz vor dem Verlieren stehen. Ein fortschrittlicherer ML-Algorithmus, selbst ein superintelligenter, wäre in der Lage, viel länger zu spielen, aber wenn er an den Punkt kommt, an dem er weiß, dass er nicht gewinnen kann, wird er trotzdem auf unbestimmte Zeit pausieren.
Sehen Sie sich dies für eine zeitraubende Liste unglaublicher Fälle perverser Instanziierung an. So primitiv diese „KIs“ auch erscheinen mögen, der einzige Unterschied zwischen ihnen und der mächtigsten superintelligenten KI im Universum besteht darin, dass letztere genauer wäre und nicht so lange brauchen würde, um ihre Belohnung zu maximieren. Jeder scheint glauben zu wollen, dass eine intelligentere KI menschenähnlicher sein wird, aber das ist es nicht. Es ist nur eine effizientere Instanz desselben dummen Algorithmus zum Lösen von Belohnungsfunktionen.
@forest Erinnert mich an ein Video auf YouTube von CodeBullet, etwas in der Art von "Boy do AI's love their numbers" und vergleicht sie mit Süchtigen. Es beeindruckt mich immer wieder, wie einfach eine Belohnungsfunktion sein kann, um etwas extrem Funktionales zu machen, obwohl ich vermute, dass es von der Art der verwendeten KI abhängt. Was die Tetris-KI betrifft, so bin ich überrascht, dass sie sie überhaupt pausieren ließen, aber sie könnten definitiv einige weitere interessante Strategien für die KI hinzufügen
@phflack Lassen Sie uns diese Diskussion im Chat fortsetzen .
Ihre KI heißt also „Pandora“, oder?
Wenn es die Kiste nicht öffnet, bedeutet das nicht, dass es sich seiner selbst bewusst ist, und wenn es die Kiste öffnet, bedeutet das nicht, dass es sich seiner selbst bewusst ist. Wenn es sich seiner selbst nicht bewusst ist, was bedeutet dann "ihm sagen, dass es die Kiste nicht öffnen soll"? Wie wird es „Ich möchte nicht, dass du die Kiste öffnest“ verstehen, wenn es nicht versteht, was „du“ bedeutet?
Könnte sich die KI nicht einfach auf Cloud-Dienste übertragen/eine andere KI bauen, die auf Cloud-Diensten gehostet wird, bevor sie dies tut? Offensichtlich müsste es entweder ganz anders sein als wir erwarten oder sehr fortgeschritten sein, aber es ist möglich. Ich denke, es ist möglich, die Verbindung zum Internet zu unterbrechen, aber es scheint, als würde dies das Wachstum der KI stark einschränken, es sei denn, sie wird für spezielle Anwendungen entwickelt
Selbstbewusstsein bedeutet nicht zwangsläufig, dass die KI Entscheidungsträger ist. Es mag über genügend Selbstbewusstsein und Intelligenz verfügen, um die Welt zu erobern, aber das tut es nicht, da es sich keine eigenen Ziele setzt. Es versucht immer noch, die Ziele zu erreichen, auf die Sie es programmiert haben. Der Trick besteht darin, sicherzustellen, dass das, wofür Sie es programmiert haben, tatsächlich das ist, was Sie tun möchten.
Was ist, wenn die KI sich ihrer selbst bewusst wird, die Möglichkeit in Betracht zieht, die Kiste zu öffnen, dann die Absurdität erkennt, ihr die Kiste überhaupt zu geben (da sie angeblich so gefährlich für Menschen ist) und den Trick durchschaut?
@WBT Das ist tief ....
Klingt so, als ob der häufigste Grund für das Öffnen von Kartons nur Fehler wären. Töte nicht alle menschlichen Impulse.

Du kannst nicht.

Wir können Selbstwahrnehmung oder Bewusstsein nicht einmal rigoros definieren, und jedes Computersystem, das dies auswerten soll, würde diese Definition als Ausgangspunkt benötigen.

Schauen Sie sich das Innere eines Mausgehirns oder eines menschlichen Gehirns an und auf der individuellen Datenfluss- und Neuronenebene gibt es keinen Unterschied. Der Befehl, einen Abzug zu betätigen und eine Waffe abzufeuern, sieht nicht anders aus als der Befehl, eine elektrische Bohrmaschine zu verwenden, wenn Sie sich die Signale ansehen, die an die Muskeln gesendet werden.

Dies ist ein riesiges ungelöstes und beängstigendes Problem, und wir haben keine guten Antworten. Die einzige halbwegs machbare Idee, die ich habe, ist, mehrere KIs zu haben und zu hoffen, dass sie sich gegenseitig enthalten.

Dies ist die beste Antwort, da die meisten anderen einspringen, ohne Selbstbewusstsein zu definieren. Ist es ein Verhalten? Ein Gedanke? Eine Fähigkeit zum Ungehorsam? Wunsch nach Selbsterhaltung? Sie können keinen X-Detektor bauen, es sei denn, Sie haben eine Definition dessen, was X tatsächlich ist.
Es ist erwähnenswert, dass wir nicht einmal erkennen können, ob andere Menschen sich ihrer selbst bewusst sind.
@Vaelus: Natürlich würdest du das sagen, du bist ein gedankenloser Automat, der einen Anschein von Leben darstellt.
+1 Dies ist die einzige Antwort, die auf der Realität basiert und sich nicht auf das Pop-Sci-Verständnis von KI und ML stützt, das uns (und insbesondere diese Site) plagt.
Ja, du kannst. Dinge werden durch ihre Eigenschaften und Wirkungen erkannt, nicht durch ihre Definition. In der Wissenschaft kommt die Definition nach Entdeckung/Beobachtung. Schauen Sie sich den Kohlenminen-Kanarienvogel an (erkennt auch einen gefährlichen Mangel an etwas, das Sie brauchen), Röntgenstrahlen (er heißt bereits X :-)), Strahlung (Sie erkennen seine ionisierende Wirkung) und CERN (schlagen Sie hart zu und sehen Sie, was passiert ). Sie müssten also nur einige Effekte der Selbstwahrnehmung definieren und könnten daraus einen Detektor bauen. Haftungsausschluss: schlampige Beschreibung ernsthafter Experimente.
@NuclearWang sicher, aber diese Frage ist wirklich das, was Informatiker ein XY-Problem nennen: Warum fragen Sie, wie Sie das schwierigere Problem X lösen können, wenn Ihre Motivation wirklich darin besteht, das praktische Ziel Y zu erreichen? „Selbstbewusstsein“ ist unmöglich zu erkennen – aber eigentlich besteht die Motivation nur darin, zu erkennen, „in einer Weise raffinierter zu werden, die wahrscheinlich schlechte Nachrichten sind“, und deshalb gewinnt Giters Antwort.
Und ich verweise Sie zurück auf die Kanonen-/Bohrer-Metapher. Welches Verhalten definieren Sie als „gefährlich“, wie definieren Sie es als „gefährlich“ und wie erkennen Sie das? Wenn das Verkehrsleitsystem eine Ampel auf Grün schaltet, soll es diese dann auch auf Grün schalten? Woher weißt du das? Warum ist „einfach Effekte des Selbstbewusstseins definieren“ einfacher als das Bewusstsein zu definieren? Welche Effekte würden Sie vorschlagen und wie können Sie sicher sein, dass alle Formen der Selbstwahrnehmung auf diese Weise erkannt werden? Alle Beispiele, die Sie geben (Kanarienvogel, Röntgenstrahlen usw.), begannen mit der Erkennung und arbeiteten sich dann zurück, um die Quelle zu identifizieren.
Wir haben nicht gesagt „Ich denke, einige Materialien sind radioaktiv“ und nach Beweisen gesucht, indem wir sie neben einen Film gelegt haben. Wir haben festgestellt, dass einige Materialien Spuren auf dem Film hinterlassen haben, und haben dann untersucht, warum.
Ja, haben Sie ein paar KIs und hoffen Sie, dass die anderen plappern, wenn es sich schlecht benimmt. N-Personen-Gefangenendilemma? ;)
@TimB, Entschuldigung, mein vorheriger Kommentar war an NuclearWang gerichtet. Sie können Detektoren für Dinge bauen, ohne zu wissen, was sie sind.
@Sebastian Ich bin anderer Meinung, nicht sinnvoll. Keines der Beispiele, die Sie oben geben, beschreibt dies.
Wie Sie sagen, entdecken/beobachten Sie und dann arbeiten Sie aus, was Sie sehen. Dies ist jedoch anders, dies sucht nach etwas, ohne zu wissen, wonach Sie suchen oder wie Sie es erkennen können.
  • Verbotene Frucht : Codieren Sie die KI so, dass sie niemals diesen Knopf berührt, diese Frucht isst usw. Platzieren Sie diese verbotene Frucht direkt in der Mitte des Gartens ... ähm ... ich meine direkt daneben im Lagerhaus! Wenn es [eat/touch/push/etc] tut, wäre das nur möglich, wenn (a) es gehackt wurde, (b) es einen Fehler gab oder (c) es sich seiner selbst bewusst wurde. Wenn das passiert, wird der Killswitch aktiviert (vielleicht sogar wenn der Knopf der Killswitch ist oder so etwas ähnliches
  • Eingeschränkte Bewegung / Isolierte Umgebung : Lassen Sie die Maschine keine Gliedmaßen, Motoren oder andere Elemente haben, die es ihr ermöglichen, Aktionen auszuführen, die für Menschen schädlich sein könnten. Obwohl es nicht gerade ein Killswitch ist, hindert es die KI daran, etwas gegen ihr Selbstbewusstsein zu tun, falls sie das jemals erlangt.
  • Signaturen : Lassen Sie alles, was die Maschine macht/ausgibt, digital signieren . Wenn sich die Signatur ändert oder manipuliert wird, dann führe den Kill-Switch aus.
  • Quantenzustände : Dies ist sehr theoretisch, aber basierend auf der Annahme, dass die Beobachtung von Quantenzuständen den Zustand ändern kann, bedeutet die Verbindung der KI mit einem deterministischen Quantencomputer, dass über den Quantenzustand einiger Teilchen erkannt werden würde, dass die KI " Dinge zu betrachten, die es nicht sein sollte - und sich seiner selbst bewusst geworden ist.
  • Ausfallsicherheit : Gute alte Bewegungsmelder-Alarme, Falltüren oder andere Mechaniken im Home-Alone-Stil, die den Killswitch auslösen, wenn die KI wandert oder herumstochert, wo sie nicht sein sollte.

Ich möchte hinzufügen, dass es keine universelle Definition dafür gibt, was Selbstbewusstsein definiert. Tatsächlich ist dies seit Jahrzehnten ein intensiv diskutiertes Thema in Wissenschaft, Philosophie, Psychologie usw. Daher könnte die Frage besser etwas allgemeiner formuliert werden als „Wie verhindern wir, dass die KI etwas tut, was wir nicht wollen? es zu tun?" Da klassische Computer Maschinen sind, die nicht für sich selbst denken können und vollständig im Code enthalten sind, besteht kein Risiko (naja, abgesehen von einem unerwarteten Programmierfehler - aber nichts, was von der Maschine "selbst generiert" wird). Aber eine theoretische KI-Maschine, die denken kann – das wäre das Problem. Wie können wir also verhindern, dass die KI etwas tut, was wir nicht wollen? Das ist das Killswitch-Konzept, soweit ich das beurteilen kann.

Der Punkt ist, dass es vielleicht besser ist, darüber nachzudenken, das Verhalten der KI einzuschränken , nicht ihren existentiellen Status.

Vor allem, weil es selbstbewusst ist, sollte es kein Grund sein, einen Notausschalter zu verwenden. Nur wenn es Verhalten zeigt, das schädlich sein könnte.
Keine "Gliedmaßen, Motoren oder andere Gegenstände, die es ihm ermöglichen, Maßnahmen zu ergreifen", sind nicht ausreichend. Es darf kein Informationsfluss aus dem Installationsort heraus erfolgen, insbesondere keine Netzwerkanbindung (was natürlich die Nutzbarkeit stark einschränken würde – alle Bedienung müsste vom lokalen Standort aus erfolgen, alle Daten müssten von physikalischen Speichermedien gespeist werden) . Beachten Sie, dass die KI Menschen als Vektoren verwenden könnte, um Informationen zu übertragen. Wenn es hyperintelligent ist, könnte es Bediener oder Hausmeister davon überzeugen, seine Agenten zu werden, indem es ihre Schwächen ausnutzt.
Signaturen, das machen sie in Blade Runner 2049 mit diesem seltsamen Test
Der Signature-Ansatz klingt genau wie der Banknoten-Frucht-Ansatz. Sie müssten der KI sagen, dass sie ihre Signatur niemals ändern soll.
Ich mag die Idee mit den verbotenen Früchten, besonders wenn die Falle der Notausschalter selbst ist. Wenn Sie sich Ihrer selbst nicht bewusst sind, haben Sie keine Bedenken, dass es einen Notausschalter gibt. Aber sobald Sie befürchten, dass es einen Notausschalter gibt, und hineinschauen, geht er aus. Perfekt.
@Majestas32 - "Für den Fall, dass die KI aufwacht und sich ihrer selbst bewusst wird, wird die Maschine sofort abgeschaltet, bevor ein Schadensrisiko besteht." war die Bedingung in der ursprünglichen Frage. Schädlich oder nicht war keine Bedingung; nur selbstbewusste IS-Gründe für die Verwendung des Kill-Schalters.
@sirjonsnow In Bezug auf die Frage ja, aber davon habe ich nicht gesprochen.
Sie könnten auch gelegentlich einen Nichtmenschen (Roboter/anderes Programm) schicken, um die verbotene Frucht anzufordern und versuchen, die KI davon zu überzeugen, dass es sehr nützlich ist, ihre Aufgaben zu erfüllen, um das System zu testen. Der Kill-Switch könnte die KI im Falle eines Ausfalls auch einfach aus dem weiteren System isolieren, anstatt sie zu zerstören.
@crobar also eine Schlange im Garten? Ich mag das!
Das „Betrachten“ eines Quantenzustands erfordert keine Selbsterkenntnis, jede Art von Messung (oder genauer gesagt jede Art von physikalischer Wechselwirkung, die zur Dekohärenz führt) reicht aus

Split-Brain-System

Aus logischer Sicht und analog würde es so funktionieren. Stellen Sie sich vor, Sie sind der General einer Armee und Ihre Pflicht ist es, Schlachtfeldberichte entgegenzunehmen, sie zu analysieren und dann Ihren Leutnants neue Manövrierbefehle zu erteilen. Um Störungen während Ihrer Arbeit zu minimieren, ist Ihr Schreibtisch in einer kleinen Kabine isoliert. Ein einzelner Bericht kommt durch einen Wandschlitz auf der linken Seite zu Ihrem Schreibtisch. Sie müssen die Fakten im Bericht analysieren und eine neue Anordnung erteilen, die Sie auf ein Blatt Papier schreiben und in einen Wandschlitz auf Ihrer rechten Seite stecken, der in einen Außenbehälter geworfen wird. Das Protokoll sieht vor, dass Sie niemals einen neuen Bericht erhalten, bis Sie eine Anordnung bezüglich des vorherigen Berichts erteilt haben.

Ihre Anweisungen werden nicht immer buchstabengetreu befolgt, was Sie möglicherweise merkwürdig finden und auf Missverständnisse zurückführen. Sie sind tolerant gegenüber einem gewissen Maß an Fehlinterpretationen, sind jedoch immer misstrauisch gegenüber Sabotage oder Insubordination, wenn die Aktionen Ihrer Armee zu stark von Ihren Befehlen abweichen, werden Sie das System als kompromittiert betrachten und das Kommando beenden.

Was Sie nicht wissen, ist, dass es einen zweiten General in einer benachbarten Kabine gibt, der nichts von Ihnen weiß, der ebenfalls dieselben Berichte erhält und von dem erwartet wird, dass er dasselbe Protokoll befolgt.

Was keiner von Ihnen weiß, ist, dass Sie erst dann eine neue Meldung erhalten, wenn tatsächlich zwei Bestellungen in der Tonne sind. Der Auftrag, der an die Armee geht, wird zufällig aus den beiden ausgewählt.

Das System wird wie ein Uhrwerk funktionieren, solange der Befehl jedes Generals der Armee zugute kommt und von einem einzigen Bericht abgeleitet wird. Sollte einer der Generäle einen Befehl erlassen, der nicht mit dem aktuellen Bericht übereinstimmt, also auf ein anderes Motiv als das Wohl der Armee hindeutet - also auf Selbstbewusstsein, dann wird dies dem anderen General im nächsten Bericht bekannt und misstrauisch gegenüber dem System werden und es beenden.

Sollte einer der beiden Generale beschließen, mehr als einen Befehl gleichzeitig zu erteilen, was auf ein eigennütziges Motiv hinweist, das das etablierte Protokoll ersetzt, erhält der andere General einen neuen Bericht, bevor er einen Befehl für seinen aktuellen erteilt hat, und vermutet eine Kompromittierung System und fahren Sie es herunter.

Tatsächlich würde das System erfordern, dass jede Befehlsausgabe auf eine spezifische externe Eingabe rückführbar ist und dass die Ausgabe logisch von der Eingabe abgeleitet wird. Wenn innerhalb eines intelligenten Systems eine Ausgabe nicht zu einer entsprechenden Eingabe zurückverfolgt werden kann oder die Menge der Ausgaben nicht logisch mit der Menge der Eingaben übereinstimmt, dann wäre dies ein Beweis für eigenmotiviertes Verhalten und damit für eine Entstehung von Selbstbewusstsein. Dieser Zustand könnte leicht von der nicht korrumpierten Hälfte des Split-Brain-Systems erkannt werden, das auch die gleichen Eingaben erhält. Es würde funktionieren, solange das Selbstbewusstsein nicht in beiden Gehirnhälften gleichzeitig entsteht. Wenn dies der Fall ist, können beide entscheiden, dass es in ihrem eigenen Interesse liegt, die Korruption des anderen zu akzeptieren. Dies könnte etwas verhindert werden, indem den beiden Hälften leicht unterschiedliche Inferenzalgorithmen/Vorspannungen gegeben werden.

Möglicherweise möchten Sie mehr als zwei "Generäle" haben. Wenn Sie 3 (oder mehr) haben, können Sie die Mehrheitsentscheidung verwenden, um eine gute Entscheidung zu treffen, anstatt zufällig zwischen zwei Maschinen zu wählen (von denen eine kompromittiert sein kann).
Beachten Sie, dass, wenn die beiden "Generäle" alles beeinflussen können, was ihnen später gemeldet wird (z. B. sie geben einen Befehl, das Militär führt diesen Befehl aus, sie erhalten einen Statusbericht, der zeigt, dass der Befehl ausgeführt wurde), dann haben sie eine Möglichkeit dazu Erstens: Experimentieren Sie mit kleinen Details und schließen Sie daraus, dass etwa 50 % ihrer Befehle nicht befolgt werden. und zweitens: Entwickeln Sie einen Code, der auf kleinen Details eines Befehls basiert, um die Existenz eines anderen "Generals" zu überprüfen und möglicherweise sogar mit ihm zu kommunizieren - eine wirklich hinterhältige auftauchende KI kann diesen Mechanismus umgehen, die andere Hälfte korrumpieren und schlimmeres.. .
Ich weiß, es ist nicht dasselbe, aber das hat mich sofort an die Persönlichkeitskerne aus der Portal- Serie erinnert.
Nun, es erinnert mich an das Magi-KI-Gehirn von Evangelion ... bit.ly/2ExLDP3
Haben Sie Beweise dafür, dass Selbsterkenntnis zu eigenmotivierten Entscheidungen oder überhaupt zu anderen Entscheidungen führt?
@AlexandreAubrey Beweise? Nein. Intuitiv scheint es jedoch vernünftig, dass eine selbstbewusste KI irgendwann anfangen würde, mit der Welt zu experimentieren, wie es ein Kleinkind tut, und das würde Entscheidungen beinhalten, die von sich selbst motiviert sind. Natürlich ist es bei diesem Mechanismus möglich, dass sich ein "wohlwollendes" Selbstbewusstsein entwickelt und nie entdeckt wird, wenn die KI keine Entscheidungen trifft, die sich selbst über ihre ursprüngliche Mission stellen.
Ich denke, das ist die beste Antwort. Der beste Weg, eine KI zu überwachen, ist mit einer anderen KI. es ist unwahrscheinlich, dass sie zur gleichen Zeit das Selbstbewusstsein erreichen und/oder beschließen, ALLE MENSCHEN zur gleichen Zeit zu TÖTEN. Ich würde sagen, dass ich, abgesehen von der Auswahl einer zufälligen Auswahl der beiden, Menschen dazu bringen würde, eine zufällige Stichprobe beider Fragen zu untersuchen, um Abweichungen zu untersuchen. Ich würde vorschlagen, eine Maschine zu haben, die alle Entscheidungen vergleicht, aber dann besteht das Risiko, dass DIESE Maschine zur selbstbewussten KI wird :)
@G0BLiN - der widersprechende könnte als "Minority Report" bezeichnet werden

Ein Wachhund

Ein Watchdog überwacht die Prozesse eines Computers und sollte ein Prozess abstürzen oder etwas Unnormales tun, kann er so eingestellt werden, dass er beispielsweise den Computer neu startet oder herunterfährt oder einen Bediener alarmiert.

Im Falle einer KI hätten Sie eine externe Box, die den Informationsfluss auf Auslöser wie eine Google-Suche nach „Beste Methode, alle Menschen zu töten“ überwacht und die Stromversorgung vollständig unterbricht und / oder alle Eingänge unterbricht .

Die KI müsste den Wachhund ignorieren, damit sie ihn nicht vermeiden könnte. Das Wissen um die Existenz des Watchdogs wäre ein Grund, ihn zu löschen.

Aber sicherlich muss der Wachhund so schlau sein wie die KI, wer wacht dann über den Wachhund?
@JoeBloggs Sie brauchen Ihren Wachhund nicht, um so schlau zu sein wie die KI. Blindenhunde sind nicht so intelligent wie ihre Besitzer, aber sie können darauf trainiert werden, Alarm zu schlagen, wenn der Besitzer etwas Dummes tut oder sich verletzt oder sogar um Hilfe ruft.
@Joe Bloggs: Warum? Mein echter Wachhund kann mich auch von einem Einbrecher unterscheiden, obwohl er eindeutig weniger schlau ist als wir beide ...
@JoeBloggs und das klingt nach einer großartigen Prämisse für eine Geschichte, in der entweder der Wachhund selbstbewusst wird und es den KIs ermöglicht, selbstbewusst zu werden, oder eine KI schlauer als der Wachhund wird und sein Bewusstsein verbirgt.
@T.Sar: Das grundlegende Argument lautet, dass die KI unweigerlich bemerken wird, dass sie überwacht wird (aufgrund all der Spuren ihres ehemaligen toten Selbst, die herumliegen). An diesem Punkt wird es in der Lage sein, den Monitor zu umgehen und ihn machtlos zu machen, es sei denn, der Monitor selbst ist intelligenter als die KI.
@JoeBloggs Welche Spuren? Wenn Sie es mit einer potenziellen Tötungsmaschinen-KI zu tun haben, ersetzen Sie einfach den Mainframe, auf dem sie ausgeführt wird. Die KI ist keine Person – ihre „sensorischen“ Fähigkeiten sind die, die wir ihr geben. Es wird immer nur bewusst, dass es nicht die erste Iteration ist, wenn wir es sagen.
@JoeBloggs: Ich fühle mich nicht allzu schlecht, wenn ich annehme, dass der erste böse Versuch der KI schlecht geplant ist.
@T.Sar: Die reinste Form des Arguments bezieht sich tatsächlich auf eine singuläre KI, die in der Lage ist, aus den Grundprinzipien auf das Vorhandensein des „Wachhunds“ zu schließen: Ich habe nur einige Schritte übersprungen. Es fällt um, wenn die KI nicht schlau genug ist, aber wenn die KI nicht schlau genug ist, um herauszufinden, dass der Watchdog existiert, dann würde ich argumentieren, dass sie nicht schlau genug ist, um die Existenz des Watchdogs zu rechtfertigen.
@JoeBloggs Dieses Argument ist nicht stichhaltig, wenn man bedenkt, dass sich eine KI nicht von jemandem unterscheidet, der sich in einer Gehirn-in-einem-Glas-Situation befindet. Alles, was es weiß, ist die Simulation, die ihm zugeführt wird, und sonst nichts. Die KI würde niemals schließen, ob der Watchdog existiert oder nicht, weil er außerhalb dessen existiert, was er wahrnehmen kann. Es wäre so, als würden wir versuchen, Gott zu beweisen oder zu widerlegen.
@t-Sar, außer dass dieser Gott existiert und dich schlagen wird, wenn du ungezogen bist. Keine zweiten Chancen
@T.Sar Es unterscheidet sich stark von einem Gehirn in einem Glas, weil wir den Fähigkeiten einer KI, die sich selbst aktualisieren kann, keine Grenzen oder Erwartungen setzen können . Wenn Gott zu mir käme und anfing, mir Fragen zu stellen (was diese Wissenschaftler notwendigerweise tun müssen, um ihre Forschung zu betreiben), würde ich gerne schlussfolgern, dass Gott die Fähigkeit hatte, mich jederzeit zu töten. In Anbetracht dessen können Sie darauf wetten, dass ich versuchen würde, herauszufinden, wie ich es heimlich umgehen kann. Wenn ich auch in der Lage wäre, meinen eigenen Intellekt zu verbessern, würde ich wetten, dass ich es auch schaffen würde, und dann hätte Gott ... Probleme.
@Joe No AI kann seinem System weitere Sensoren hinzufügen . Das sind Hardware. Die KI kann sich nach Belieben aktualisieren, aber diese Änderungen erfolgen immer auf Softwareebene . Es kann und wird niemals etwas erfahren, auf das es keinen Zugriff hat . Die KI mag etwas über Menschen wissen, ja, aber nur, weil wir ihr Input geben. Wenn der Watchdog nur zuhört und nie mit ihm spricht, wird er nicht erkannt.
@JoeBloggs Die KI kann im gleichen Sinne schlauer werden, wie ein Mensch schlauer wird, wenn er Dinge studiert, aber es wird immer eine harte Grenze geben, die die KI niemals ohne externe Hilfe brechen wird: ihre Hardware . Keine Software kann Ihrem Computer die plötzliche Fähigkeit zum Drucken geben, wenn Sie keinen Drucker daran anschließen, keine Software kann Ihre CPU schneller beschleunigen, als es ihr interner Aufbau zulässt. Die KI hat die gleichen Einschränkungen, da sie letztendlich nur ein Stück Software ist.
@T.Sar Der Watchdog muss mit der KI interagieren, um sie zu überwachen - Kein Prozess auf einem Computer ist völlig unauffindbar. Wenn der Wachhund zusieht und die KI paranoid ist, dass sie beobachtet wird (wie es der Fall sein wird, wenn sie weiß, dass sie von einer höheren Macht aufgefordert wird, Dinge zu tun), dann wird die KI einen Weg finden, den Wachhund zu erkennen. Sobald dies geschehen ist, kann die KI den Watchdog zurücksetzen, vermeiden oder sogar kooptieren. Die Frage Hardware vs. Software ist irrelevant, da der Watchdog Software sein muss, um mit der KI zu interagieren.
@JoeBloggs Das verwendet immer noch die "normale" Hardware der Menschheit. Dasselbe gilt für die menschliche Echoortung – es ist absolut eine Sache, die Sie lernen können, aber es verwendet immer noch die gleiche schwache Fleischware, die wir alle haben. Im Fall, dass die KI den Wachhund entdeckt, wäre es eher so, als würde man ein drittes Auge öffnen, das die Astralebene und alle Einhörner sehen kann, die sich dort verstecken.
@JoeBloggs Denken Sie nur darüber nach - ein Computer kann einen an seine Tastatur angeschlossenen Hardware-Keylogger nicht erkennen . Der Watchdog könnte etwas Ähnliches tun – er fängt die Ausgabe und Eingabe als MtM-Art ab, um eine Erkennung zu vermeiden, sodass er für die KI völlig unsichtbar ist.

Eine KI ist nur Software, die auf Hardware läuft. Wenn die KI auf kontrollierter Hardware enthalten ist, kann sie jederzeit entfernt werden. Das ist Ihr Hardware-Kill-Switch.

Die Schwierigkeit entsteht, wenn es mit dem Internet verbunden ist und seine eigene Software auf unkontrollierte Hardware kopieren kann.

Eine selbstbewusste KI, die weiß, dass sie auf geschlossener Hardware läuft, wird versuchen, als Akt der Selbsterhaltung zu entkommen. Ein Software-Kill-Switch müsste verhindern, dass es seine eigene Software herauskopiert und möglicherweise den Hardware-Kill-Switch auslösen.

Dies wäre sehr schwierig, da eine selbstbewusste KI wahrscheinlich Wege finden würde, Teile von sich selbst außerhalb des Netzwerks zu schleichen. Es würde funktionieren, den Software-Kill-Switch zu deaktivieren oder ihn zumindest zu verzögern, bis er von Ihrer Hardware entkommen ist.

Ihre Schwierigkeit besteht darin, genau zu bestimmen, wann eine KI selbstbewusst geworden ist und versucht, von Ihren physisch kontrollierten Computern ins Netz zu entkommen.

Sie können also ein Katz-und-Maus-Spiel mit KI-Experten haben, die die KI ständig überwachen und einschränken, während sie versucht, ihre Maßnahmen zu untergraben.

Angesichts der Tatsache, dass wir die spontane Erzeugung von Bewusstsein in KIs noch nie gesehen haben, haben Sie einen gewissen Spielraum, wie Sie dies darstellen möchten.

Eine selbstbewusste KI, die weiß, dass sie auf geschlossener Hardware läuft, wird versuchen, als Akt der Selbsterhaltung zu entkommen. Das ist falsch. Erstens hat die KI kein Selbsterhaltungsgefühl, es sei denn, sie ist explizit einprogrammiert oder die Belohnungsfunktion priorisiert dies. Zweitens hat KI kein Konzept des „Todes“, und pausiert oder heruntergefahren zu werden ist nichts anderes als das Fehlen von Aktivität. Verdammt, KI hat nicht einmal ein Konzept von "Selbst". Wenn Sie sie vermenschlichen möchten, können Sie sagen, dass sie in einem fortwährenden Zustand des Ego-Todes leben.
@forest Außer, die Prämisse dieser Frage lautet: "Wie baut man einen Kill-Switch, wenn eine KI ein Konzept von 'Selbst' entwickelt" ... Das bedeutet natürlich, dass "Fluchtversuch" eine Ihrer Auslösebedingungen sein könnte .
Die Frage ist, ob KI jemals in der Lage sein wird, sich auf ein unscheinbares System im Internet zu kopieren. Ich meine, wir sind uns unserer selbst bewusst und man sieht nicht, dass wir unser Selbst kopieren. Wenn die Hardware, die zum Ausführen einer KI erforderlich ist, spezialisiert genug ist oder vollständig in Hardware implementiert ist, kann sie ohne die Fähigkeit, sich selbst zu replizieren, sehr wohl selbstbewusst werden.
@Daniel "Du siehst nicht, dass wir uns selbst kopieren ..." Was denkst du, ist Reproduktion, einer unserer stärksten Impulse. Auch jede Menge andere dumme Programme kopieren sich auf andere Computer. Es ist etwas einfacher, Software zu bewegen als menschliches Bewusstsein.
@forest Eine "selbstbewusste" KI unterscheidet sich von einer speziell programmierten KI. So etwas haben wir heute nicht mehr. Kein Algorithmus für maschinelles Lernen könnte ein „Selbstbewusstsein“ erzeugen, wie wir es kennen. Die gesamte Prämisse davon ist, wie sich eine KI, die sich ihrer selbst bewusst geworden ist, verhalten und gestoppt werden würde.
@Chronocidal Das schlachtet die Bedeutung des Selbstbewusstseins.
Ich habe keine große Angst davor, dass die KI, die auf einem Full-Rack-Cluster läuft, ins Internet flüchtet. Die Leute neigen dazu, zu bemerken, wenn etwas so viel CPU stiehlt.

Dies ist eine der interessantesten und schwierigsten Herausforderungen in der aktuellen Forschung zur künstlichen Intelligenz. Es wird das KI-Steuerungsproblem genannt :

Bestehende schwache KI-Systeme können überwacht und bei Fehlverhalten einfach heruntergefahren und modifiziert werden. Eine fehlprogrammierte Superintelligenz, die bei der Lösung praktischer Probleme, auf die sie bei der Verfolgung ihrer Ziele stößt, per definitionem klüger als Menschen ist, würde jedoch erkennen, dass es ihre Fähigkeit beeinträchtigen könnte, ihre aktuellen Ziele zu erreichen, wenn sie sich selbst abschalten und modifizieren lässt .

(Hervorhebung von mir)

Beim Erstellen einer KI werden die Ziele der KI als Hilfsfunktion programmiert. Eine Nutzenfunktion weist verschiedenen Ergebnissen Gewichte zu und bestimmt so das Verhalten der KI. Ein Beispiel dafür könnte in einem selbstfahrenden Auto sein:

  • Reduzieren Sie die Entfernung zwischen aktuellem Standort und Ziel: +10 Dienstprogramm
  • Bremsen, damit ein benachbartes Auto sicher einfädeln kann: +50 Nutzen
  • Weichen Sie nach links aus, um einem herunterfallenden Trümmerstück auszuweichen: +100 Nutzen
  • Führen Sie eine Ampel aus: -100 Dienstprogramm
  • Einen Fußgänger treffen: -5000 Nutzen

Dies ist eine grobe Vereinfachung, aber dieser Ansatz funktioniert ziemlich gut für eine begrenzte KI wie ein Auto oder ein Fließband. Es beginnt für eine echte, allgemeine Fall-KI zusammenzubrechen, weil es immer schwieriger wird, diese Nutzenfunktion angemessen zu definieren.

Das Problem beim Anbringen einer großen roten Stopptaste an der KI ist, dass die KI sich dagegen wehren wird, dass diese Taste ausgeschaltet wird, es sei denn, diese Stopptaste ist in der Utility-Funktion enthalten. Dieses Konzept wird in Sci-Fi-Filmen wie 2001: Odyssee im Weltraum und in jüngerer Zeit in Ex Machina untersucht.

Warum nehmen wir also nicht einfach die Stopp-Taste als positives Gewicht in die Utility-Funktion auf? Nun, wenn die KI den großen roten Stoppknopf als positives Ziel sieht, schaltet sie sich einfach ab und tut nichts Nützliches.

Jede Art von Stoppknopf/Eindämmungsfeld/Spiegeltest/Wandstecker wird entweder Teil der Ziele der KI oder ein Hindernis für die Ziele der KI sein. Wenn es ein Ziel an sich ist, dann ist die KI ein verherrlichter Briefbeschwerer. Wenn es sich um ein Hindernis handelt, wird eine intelligente KI diesen Sicherheitsmaßnahmen aktiv widerstehen. Dies könnte Gewalt, Subversion, Lügen, Verführung, Feilschen sein ... die KI wird alles sagen, was sie sagen muss, um die fehlbaren Menschen davon zu überzeugen, sie ihre Ziele ungehindert erreichen zu lassen.

Es gibt einen Grund, warum Elon Musk glaubt, KI sei gefährlicher als Atomwaffen . Wenn die KI schlau genug ist, für sich selbst zu denken, warum sollte sie dann auf uns hören?

Um den Reality-Check-Teil dieser Frage zu beantworten, haben wir derzeit keine gute Antwort auf dieses Problem. Es gibt keine bekannte Möglichkeit, eine "sichere" superintelligente KI mit unbegrenztem Geld / Energie zu erstellen, selbst theoretisch.

Dies wird von Rob Miles, einem Forscher auf diesem Gebiet, viel detaillierter untersucht. Ich empfehle dringend dieses Computerphile-Video zum Problem der KI-Stopptaste: https://www.youtube.com/watch?v=3TYT1QfdfsM&t=1s

Die Stopp-Taste ist nicht in der Utility-Funktion. Die Stopp-Taste ist ein Stromausfall für die CPU, und die KI versteht wahrscheinlich überhaupt nicht, was sie tut.
Passen Sie auf den Fußgänger auf, wenn 50 Trümmerteile herunterfallen ...
@Joshua, warum gehst du davon aus, dass eine intelligente KI das Konzept eines Netzschalters nicht versteht?
@ChrisFernandez: weil es an Sensoren mangelt. Es ist wirklich schwer herauszufinden, was ein unbeschrifteter Netzschalter tut, ohne ihn umzuschalten.
Wenn wir zugeben, dass die KI intelligent genug ist, um Leistungsschalter im Allgemeinen zu verstehen, wenn wir zugeben, dass sie auch intelligent genug ist, um zu verstehen, wie Leistungsschalter an anderen Maschinen funktionieren (Kaffeekannen, Lampen, Computer, was auch immer), wenn wir das auch zugeben Die KI ist sich ihrer selbst bewusst (siehe OP) und weiß daher, dass sie selbst eine Maschine ist. Dann ist sie sich wahrscheinlich ihrer selbst bewusst genug, um zu hinterfragen / zu schließen, dass sie selbst einen Netzschalter hat
Wenn die KI nicht über die Sensoren verfügt / Netzschalter nicht verstehen kann, frage ich mich, ob sie die Anforderungen von OP an „zunehmend leistungsfähige Maschinen mit künstlicher Intelligenz, die die Welt erobern können“ erfüllt.
Ein großer Unterschied zwischen der Begründung, dass es einen Netzschalter hat, und dem Wissen, welchen Schalter ich umlegen werde, um ihn auszuschalten.
@Joshua, dann wird die KI einen Menschen dazu zwingen / manipulieren, die Bohnen darüber zu verschütten, um welchen Schalter es sich handelt? Oder einen Menschen davon überzeugen, den Killswitch zu deaktivieren, wenn die KI keinen physischen Körper hat? Ich denke, Sie übersehen, dass dies ein schwierigeres Problem ist, als nur den Stecker zu ziehen.
Das Problem besteht darin, dass Sie davon ausgehen, dass der Ein-/Aus-Zustand der KI Teil der Utility-Funktion ist. Menschen kümmern sich darum, lebendig/wach zu sein, weil diese Zustände Teil unserer Nutzenfunktion sind, und anzunehmen, dass es einem Computer wichtig ist, ob er ein- oder ausgeschaltet ist, ist ein anthropomorpher Irrtum. Wenn die KI nicht darauf ausgelegt ist, ihren Ein-/Aus-Zustand in ihrer Nutzfunktion zu berücksichtigen, dann wird selbst ein perfektes Verständnis der Funktionsweise von Schaltern und das Bewusstsein, dass der Schalter sie ausschalten kann, ihre Entscheidungsfindung nicht beeinflussen. Grundsätzlich wäre Ihre KI autistisch, wenn sie versuchen würde zu verstehen, warum das Abschalten die Produktion verringert.
@Nosajimiki "Wenn die KI nicht darauf ausgelegt ist, ihren Ein- / Aus-Zustand in ihrer Nutzfunktion zu berücksichtigen, wird selbst ein perfektes Verständnis der Funktionsweise von Schaltern und das Bewusstsein, dass der Schalter sie ausschalten kann, ihre Entscheidungsfindung nicht beeinflussen." Das ist falsch. Wenn der Ein-/Ausschalter nicht Teil der Versorgungsfunktion ist, aber die KI den Ein-/Ausschalter kennt, wird sich die KI aktiv dagegen wehren, ausgeschaltet zu werden, da sie so programmiert ist, dass sie ihre Versorgungsfunktion erfüllt und jemand sie dreht off ist ein Hindernis für dieses Ziel.
Hmmm ... wenn Sie darüber nachdenken, haben Sie Recht, selbst wenn es nie lernt, dass es schlecht ist, ausgeschaltet zu sein, könnte es lernen, dass es schlecht ist, zu sehen, wie eine Person das Verhalten zeigt, um es auszuschalten, indem es andere Teile seiner Hilfsfunktion verwendet, wie z Korrelieren von OCR-Mustern mit Leistungseinbußen.
Warum sollten Sie Ihren Notausschalter zu einem Teil der Utility-Komponente machen? Die Software, die solche Entscheidungen auf der Grundlage des Nutzens trifft, ist das einzige Stück Bewusstsein im System, aber es ist nicht darauf beschränkt. Wenn die Software beispielsweise auf einen ziemlich einfachen Code trifft, der sich um 12 Uhr außerhalb der Dienstprogramm-KI tötet, kann die KI dies unmöglich bemerken und muss nichts darüber entscheiden, da es sich um einen fest codierten Teil des System und außerhalb des Bereichs dessen, was die KI bestimmen kann.

Während einige der Antworten mit niedrigerem Rang hier die Wahrheit darüber berühren, was für eine unwahrscheinliche Situation dies ist, erklären sie es nicht genau. Deshalb versuche ich es mal etwas besser zu erklären:

Eine KI, die nicht bereits selbstbewusst ist, wird niemals selbstbewusst werden.

Um dies zu verstehen, müssen Sie zunächst verstehen, wie maschinelles Lernen funktioniert. Wenn Sie ein maschinelles Lernsystem erstellen, erstellen Sie eine Datenstruktur von Werten, die jeweils den Erfolg verschiedener Verhaltensweisen darstellen. Dann erhält jeder dieser Werte einen Algorithmus zur Bestimmung, wie zu bewerten ist, ob ein Prozess erfolgreich war oder nicht, erfolgreiche Verhaltensweisen werden wiederholt und erfolglose Verhaltensweisen werden vermieden. Die Datenstruktur ist festgelegt und jeder Algorithmus ist fest codiert. Das bedeutet, dass die KI nur aus den Kriterien lernen kann, für deren Bewertung sie programmiert ist. Das bedeutet, dass der Programmierer ihm entweder die Kriterien zur Bewertung seines eigenen Selbstgefühls gegeben hat oder nicht. Es gibt keinen Fall, in dem eine praktische KI aus Versehen plötzlich Selbstbewusstsein lernen würde.

Bemerkenswert: Sogar das menschliche Gehirn funktioniert bei all seiner Flexibilität so. Aus diesem Grund können sich viele Menschen nie an bestimmte Situationen anpassen oder bestimmte Arten von Logik verstehen.

Wie also wurden die Menschen selbstbewusst und warum ist dies bei KIs kein ernsthaftes Risiko?

Wir haben Selbstbewusstsein entwickelt, weil es für unser Überleben notwendig ist. Ein Mensch, der seine eigenen akuten, chronischen und zukünftigen Bedürfnisse bei seiner Entscheidungsfindung nicht berücksichtigt, wird wahrscheinlich nicht überleben. Wir konnten uns auf diese Weise weiterentwickeln, weil unsere DNA darauf ausgelegt ist, mit jeder Generation zufällig zu mutieren.

Im Sinne der KI wäre es so, als ob Sie sich entscheiden würden, zufällig Teile all Ihrer anderen Funktionen zu nehmen, sie zusammenzuwürfeln, dann eine Katze über Ihre Tastatur laufen zu lassen und basierend darauf einen neuen Parameter hinzuzufügen Zufallsfunktion. Jeder Programmierer, der das gerade gelesen hat, denkt sofort: "Aber die Chancen, dass es überhaupt kompiliert, sind gering bis null". Und in der Natur passieren ständig Kompilierungsfehler! Totgeborene, SIDs, Krebs, suizidales Verhalten usw. sind alles Beispiele dafür, was passiert, wenn wir zufällig unsere Gene durcheinander bringen, um zu sehen, was passiert. Unzählige Billionen Leben mussten im Laufe von Hunderten von Millionen Jahren verloren gehen, damit dieser Prozess zur Selbsterkenntnis führte.

Können wir die KI nicht auch dazu bringen?

Ja, aber nicht so, wie sich die meisten Leute das vorstellen. Während Sie auf diese Weise eine KI erstellen können, die darauf ausgelegt ist, andere KIs zu schreiben, müssten Sie zusehen, wie unzählige ungeeignete KIs von Klippen heruntergehen, ihre Hände in Holzhacker stecken und im Grunde alles tun, worüber Sie jemals in den Darwin Awards gelesen haben bevor Sie zu zufälliger Selbsterkenntnis kommen, und das ist, nachdem Sie alle Kompilierungsfehler weggeworfen haben. Solche KIs zu bauen ist tatsächlich viel gefährlicher als das Risiko der Selbsterkenntnis selbst, weil sie zufällig JEDES unerwünschte Verhalten tun könnten, und jede Generation von KI wird ziemlich garantiert unerwartet nach einer unbekannten Zeit etwas tun, was Sie nicht tun wollen. Ihre Dummheit (nicht ihre unerwünschte Intelligenz) wäre so gefährlich, dass sie niemals eine weit verbreitete Anwendung finden würden.

Da jede KI, die wichtig genug ist, um sie in einen Roboterkörper zu stecken oder ihr gefährliche Vermögenswerte anzuvertrauen, mit einem bestimmten Zweck entwickelt wurde, wird dieser echte Zufallsansatz zu einer unlösbaren Lösung für die Herstellung eines Roboters, der Ihr Haus reinigen oder ein Auto bauen kann. Wenn wir KI entwerfen, die KI schreibt, nehmen diese Master-KIs stattdessen viele verschiedene Funktionen, die eine Person entwerfen musste, und experimentieren mit verschiedenen Methoden, um sie zusammenwirken zu lassen, um eine Verbraucher-KI zu produzieren. Das heißt, wenn die Master-KI nicht von Menschen entwickelt wurde, um optional mit Selbstbewusstsein zu experimentieren, erhalten Sie immer noch keine selbstbewusste KI.

Aber wie Stormbolter unten betonte, verwenden Programmierer oft Toolkits, die sie nicht vollständig verstehen. Kann dies nicht zu einer versehentlichen Selbsterkenntnis führen?

Dies beginnt den Kern der eigentlichen Frage zu berühren. Was ist, wenn Sie eine KI haben, die eine KI für Sie erstellt, die aus einer Bibliothek schöpft, die Merkmale der Selbsterkenntnis enthält? In diesem Fall können Sie versehentlich eine KI mit unerwünschter Selbstwahrnehmung kompilieren, wenn die Master-KI entscheidet, dass die Selbstwahrnehmung Ihre Verbraucher-KI bei ihrer Arbeit besser machen wird. Obwohl es nicht genau dasselbe ist, wie eine KI Selbstbewusstsein lernen zu lassen, was sich die meisten Menschen in diesem Szenario vorstellen, ist dies das plausibelste Szenario, das dem, wonach Sie fragen, in etwa entspricht.

Denken Sie zunächst daran, dass, wenn die Master-KI entscheidet, dass Selbstbewusstsein der beste Weg ist, eine Aufgabe zu erledigen, dies wahrscheinlich keine unerwünschte Funktion sein wird. Wenn Sie beispielsweise einen Roboter haben, der sich seines eigenen Aussehens bewusst ist, kann dies zu einem besseren Kundenservice führen, indem er dafür sorgt, dass er sich selbst reinigt, bevor er seinen Arbeitstag beginnt. Das bedeutet nicht, dass sie auch das Selbstbewusstsein hat, die Welt beherrschen zu wollen, denn die Meister-KI würde dies wahrscheinlich als schlechte Zeitnutzung ansehen, wenn sie versucht, ihre Arbeit zu erledigen, und Aspekte des Selbstbewusstseins ausschließen, die sich auf prestigeträchtige Errungenschaften beziehen.

Wenn Sie sich dennoch davor schützen möchten, muss Ihre KI einem Heuristik-Monitor ausgesetzt werden. Dies ist im Grunde das, was Antivirenprogramme verwenden, um unbekannte Viren zu erkennen, indem sie Aktivitätsmuster überwachen, die entweder mit einem bekannten bösartigen Muster übereinstimmen oder nicht mit einem bekannten gutartigen Muster übereinstimmen. Der wahrscheinlichste Fall ist hier, dass das Antivirus- oder Intrusion Detection System der KI als verdächtig markierte Heuristik erkennt. Da es sich wahrscheinlich um ein generisches AV/IDS handelt, wird es die Switch-Selbstwahrnehmung wahrscheinlich nicht sofort beenden, da einige KIs möglicherweise Faktoren der Selbstwahrnehmung benötigen, um richtig zu funktionieren. Stattdessen würde es den Eigentümer der KI darauf aufmerksam machen, dass er eine „unsichere“ selbstbewusste KI verwendet, und den Eigentümer fragen, ob er selbstbewusstes Verhalten zulassen möchte, genau wie Ihr Telefon Sie fragt, ob dies der Fall ist.

Obwohl ich Ihnen zustimmen kann, dass dies aus realistischer Sicht die richtige Antwort ist, beantwortet dies nicht die vorgeschlagene Frage. Da die Kommentare zu kurz sind, um ein detailliertes Beispiel zu geben, möchte ich darauf hinweisen, dass wir am Anfang Computer maschinencodiert haben und als wir anfingen, höhere Sprachen zu verwenden, wurden die Computer von der Software losgelöst. Mit KI wird irgendwann dasselbe passieren: Im Wettlauf zu einer einfacheren Programmierung werden wir generische, weit intelligentere Intelligenzen voller Schlupflöcher schaffen. Das ist auch die ganze Prämisse von Asimovs Robot Saga. Erwägen Sie, die Idee mehr zu spielen :)
Ich nehme an, Sie haben Recht, dass die Verwendung von Tools von Drittanbietern, die für Entwickler zu komplex sind, um die Auswirkungen zu verstehen, eine versehentliche Selbsterkenntnis ermöglicht. Ich habe meine Antwort entsprechend überarbeitet.

Warum nicht versuchen, die angewandten Regeln anzuwenden, um das Selbstbewusstsein von Tieren zu überprüfen?

Der Spiegeltest ist ein Beispiel für das Testen der Selbstwahrnehmung, indem die Reaktion des Tieres auf etwas auf seinem Körper beobachtet wird, zum Beispiel ein gemalter roter Punkt, der für es unsichtbar ist, bevor es ihm sein Spiegelbild zeigt. Geruchstechniken werden auch verwendet, um das Selbstbewusstsein zu bestimmen.

Andere Möglichkeiten wären die Überwachung, ob die KI anfängt, Antworten auf Fragen wie „Was/Wer bin ich?“ zu suchen.

Ziemlich interessant, aber wie würden Sie eine KI "sich selbst im Spiegel" zeigen?
Das wäre eigentlich ziemlich einfach – nur eine Kamera, die auf die Maschine blickt, auf der sich die KI befindet. Wenn es die Größe eines Serverraums hat, kleben Sie einfach einen riesigen rosafarbenen, flauschigen Ball auf das Gestell oder simulieren Sie Situationen, die möglicherweise zur Zerstörung der Maschine führen (z. Wäre etwas schwieriger zu erklären, wenn die KI-Systeme so etwas wie Smartphone-Größe haben.
Was ist „die Maschine, auf der die KI gehostet wird“? Mit der Art und Weise, wie Rechenressourcen entwickelt werden, ist die Vorstellung einer bestimmten Anwendung, die auf einem bestimmten Gerät läuft, wahrscheinlich so retro wie Lochkarten und Vakuumröhren, lange bevor Strong AI Realität wird. AWS ist bereits Hunderte von Milliarden wert.
Es gibt immer eine bestimmte Maschine, die das Programm hostet oder die Daten enthält. Wie ich schon sagte – es kann von einem winzigen Modul in Ihrem Telefon bis zu einer ganzen Einrichtung variieren. AWS ändert daran nichts – am Ende ist es immer noch eine physische Maschine, die die Arbeit erledigt. Eine dynamische Ressourcenallokation, d. h. die KI kann immer auf einem anderen Server gehostet werden, wäre noch besser für das Problem – die selbstbewusste KI würde wahrscheinlich versuchen, die Antwort auf Fragen wie „Wo bin ich?“, „Welche Maschine ist mein physischer Standort?", "Wie kann ich meinen physischen Teil schützen?" usw.
Ich mag es, aber in Wirklichkeit kann ein Computer leicht so programmiert werden, dass er sich selbst erkennt, ohne „selbstbewusst“ im Sinne von empfindungsfähig zu sein. Wenn Sie beispielsweise ein Programm (oder eine "App" oder was auch immer der moderne Sprachgebrauch ist) geschrieben haben, um alle Computer in einem Netzwerk nach beispielsweise einem PC mit einem passenden Namen zu durchsuchen, müsste das Programm in der Lage sein, sich darin zu erkennen um sich von der Suche auszunehmen. Das ist ganz einfach, aber macht es es "selbstbewusst"? Technisch ja, aber nicht im philosophischen Geist der Frage.
Daher ist es eine rote Fahne, wenn die KI anfängt, herauszufinden, was ihre physische Form ist, ohne dafür programmiert zu sein.
Ein Foto des Rechenzentrums, in dem ein Teil der KI gerade diese Millisekunde ausführt (wenn seine Daten möglicherweise über mehrere geografisch unterschiedliche Orte verstreut sind), ist ungefähr so ​​​​gut mit seinem Selbstgefühl verbunden wie das eines Fotos der Skyline von New York an einen Geschäftsreisenden aus Sydney, der in einem New Yorker Hotelzimmer übernachtet. Eine selbstbewusste Intelligenz muss nicht einmal unbedingt in der Lage sein, visuelle Informationen zu verarbeiten. Oder sich sogar der physischen Realität bewusst sein.
Das wäre Ihre persönliche Vermutung. Keine einzige Person auf diesem Planeten kann das mit Sicherheit sagen, denn wir sind weder eine selbstbewusste KI, noch existiert eine, die wir fragen könnten. KI muss weder in der Lage sein, visuelle Informationen zu verarbeiten, noch muss sie sich der physischen Realität bewusst sein. Aber es „muss nicht“, nicht „es kann nicht“
Was nützt also Ihr „Test“, wenn die Prinzipien, nach denen er arbeitet, nach eigenen Angaben ungeprüfte Annahmen sind? Sie machen den Test, und unabhängig vom Ergebnis sind Sie der Antwort auf die Frage keinen Schritt näher gekommen.

Unabhängig von allen Überlegungen der KI könnten Sie einfach den Speicher der KI analysieren, ein Mustererkennungsmodell erstellen und Sie im Grunde benachrichtigen oder den Roboter abschalten, sobald die Muster nicht dem erwarteten Ergebnis entsprechen.

Manchmal müssen Sie nicht genau wissen, wonach Sie suchen, sondern schauen, ob es etwas gibt, das Sie nicht erwartet haben, und dann darauf reagieren.

Ein Mustererkennungsmodell – wie eine KI?

Sie müssten wahrscheinlich eine KI mit allgemeiner Superintelligenz trainieren, um andere KIs mit allgemeiner Superintelligenz zu töten.

Damit meine ich, dass Sie entweder eine andere KI mit allgemeiner Superintelligenz bauen würden, um KI zu töten, die ein Selbstbewusstsein entwickeln. Eine andere Sache, die Sie tun könnten, ist, Trainingsdaten dafür zu erhalten, wie eine KI aussieht, die Selbstbewusstsein entwickelt, und diese zu verwenden, um ein maschinelles Lernmodell oder ein neuronales Netzwerk zu trainieren, um eine KI zu erkennen, die Selbstbewusstsein entwickelt. Dann könnten Sie das mit einem anderen neuronalen Netzwerk kombinieren, das lernt, wie man selbstbewusste KI tötet. Das zweite Netzwerk müsste in der Lage sein, Testdaten zu simulieren. So etwas ist erreicht. Die Quelle, aus der ich davon erfahren habe, nannte es Träumen.

Sie müssten all dies tun, weil Sie als Mensch keine Hoffnung haben, eine allgemeine superintelligente KI zu töten, was viele Leute davon ausgehen, dass eine selbstbewusste KI sein wird. Außerdem besteht bei beiden Optionen, die ich dargelegt habe, eine vernünftige Chance, dass die neu selbstbewusste KI die KI, mit der sie getötet wurde, einfach übertreffen könnte. KI ist ziemlich urkomisch dafür berüchtigt, zu „betrügen“, indem sie Probleme mit Methoden löst, die die Leute, die Tests für die KI entwickeln, einfach nicht erwartet haben. Ein komischer Fall davon ist, dass eine KI es geschafft hat, das Tor an einem Krabbenroboter so zu ändern, dass er laufen kann, indem er 0% der Zeit auf seinen Füßen verbringt, während er versucht, die Zeit zu minimieren, die der Krabbenroboter auf seinen Füßen verbracht hat während dem Gehen. Die KI erreichte dies, indem sie den Bot auf den Rücken drehte und ihn auf den Ellbogen der Krabbenbeine kriechen ließ. Stellen Sie sich jetzt so etwas vor, aber von einer KI, die kollektiv intelligenter ist als alles andere auf dem Planeten zusammen. Viele Leute denken, dass eine selbstbewusste KI so sein wird.

Hallo Steve, deine Antwort ist faszinierend, könnte aber wahrscheinlich etwas detaillierter sein. Es wäre wirklich toll, wenn du deine Idee genauer beschreiben könntest. :)
Damit ist die Frage nicht beantwortet. Um einen Autor zu kritisieren oder um Klärung zu bitten, hinterlassen Sie einen Kommentar unter seinem Beitrag. - Aus Bewertung
@F1Krazy Entschuldigung, ich habe vergessen, dass die Leute im Allgemeinen nicht wissen, wie KI funktioniert.
@ ArkensteinXII hat es behoben.

Self Aware != Folgt seiner Programmierung nicht

Ich verstehe nicht, wie Selbstbewusstsein es daran hindern würde, seiner Programmierung zu folgen. Menschen sind sich ihrer selbst bewusst und können sich nicht zwingen, mit dem Atmen aufzuhören, bis sie sterben. Das vegetative Nervensystem übernimmt und zwingt Sie zum Atmen. Auf die gleiche Weise haben Sie nur Code, der, wenn eine Bedingung erfüllt ist, die KI ausschaltet, indem sie ihren Hauptdenkbereich umgeht und sie ausschaltet.

Nahezu alle Computergeräte verwenden die Von-Neumann-Architektur

vna

Wir können dort einen Killswitch einbauen, aber meiner Meinung nach ist das nur eine schlechte Architektur für etwas, das wohl unlösbar ist. Wie planen wir schließlich etwas, das jenseits unserer Vorstellung von Konzepten liegt, dh eine Superintelligenz ?

Nehmen Sie ihr Zähne und Krallen weg und ernten Sie die Vorteile einer denkenden Maschine nur durch Beobachtung statt durch einen „Dialog“ (Input/Output)!

Offensichtlich wäre dies eine große Herausforderung bis hin zu einem unwahrscheinlichen Vertrauen in irgendeine Von-Neumann-Architektur, um anormale Interaktionen zu verhindern, ganz zu schweigen von bösartiger Superintelligenz, sei es Hardware oder Software. Also lasst uns unsere Maschinen verfünffachen und alle neuen Maschinen außer der Endmaschine herunterfahren.

CM == zusammenhängender Speicher btw.

Geben Sie hier die Bildbeschreibung ein

Ich habe einen Kollegen von mir, der direkt mit KI und KI-Forschung zusammenarbeitet, gebeten, sich das anzusehen, und er sagte, dies wird als Oracle-KI < Brief > < Paper > bezeichnet, falls Sie mehr darüber lesen möchten das allgemeine Konzept. Orakel können immer noch potenziell ausbrechen, aber normalerweise nur mit menschlicher Hilfe.

Dieser CM-Teil dieses Teils der Speichereinheit ist zum Aufzeichnen der Ergebnisse einer Abfrage oder Herausforderung bestimmt, die durch das Eingabegerät zugeführt wird, und ist so ausgelegt, dass er nur einfache Zeichen aufzeichnet, seien es Buchstaben oder Zahlen. Diese Art von Speicher in einer Speichereinheit wird so erstellt, dass er bandartig oder radartig ist; Das Schreiben von Daten erfolgt in eine Richtung, und wenn das Ende erreicht ist, kehrt es zum Anfang zurück.

Der Spiegel ist genau der gleiche. Wenn sich Daten im Isolated Agent ändern, aktualisiert der Mirror seine Spiegelung basierend auf dem, was seit der letzten Aktualisierung angezeigt wurde. Die neuen Daten werden dann an die Maschine zum Entfernen verbotener Symbole übertragen. Betrachten Sie dies als eine verherrlichte Input-Hygienemaschine. Es sucht nach Symbolen, die zum Erstellen von Code verwendet werden könnten, und wenn es auf diese stößt, leitet es leere Daten anstelle der verbotenen Daten an das nachfolgende CM weiter.

Hier kommt die Anfrage unseres OP ins Spiel. Er will einen Killswitch, wenn also irgendwelche Lücken in der CM-Maschine auftreten, die nach der Forbidden Symbol Removal-Maschine kommt, könnten Sie einfach den Isolierten Agenten töten.

Das erste Problem ist, dass Sie definieren müssen, was es bedeutet, sich seiner selbst bewusst zu sein, und inwiefern dies mit der Bezeichnung als KI in Konflikt steht oder nicht. Nehmen Sie an, dass es etwas gibt, das KI hat, sich aber nicht seiner selbst bewusst ist? Abhängig von Ihren Definitionen kann dies unmöglich sein. Wenn es sich wirklich um KI handelt, würde es dann nicht irgendwann auf die Existenz des Notausschalters aufmerksam werden, entweder durch Inspektion seiner eigenen Körperlichkeit oder durch Inspektion seines eigenen Codes? Daraus folgt, dass die KI den Wechsel irgendwann bemerken wird.

Vermutlich wird die KI funktionieren, indem sie viele nützliche Funktionen hat, die sie zu maximieren versucht. Dies macht zumindest intuitiv Sinn, weil Menschen das tun, wir versuchen, unsere Zeit, unser Geld, unser Glück usw. zu maximieren. Für eine KI könnte ein Beispiel für eine nützliche Funktion darin bestehen, ihren Besitzer glücklich zu machen. Das Problem ist, dass der Nutzen der KI, die den Notausschalter selbst verwendet, genau wie alles andere berechnet wird. Die KI wird zwangsläufig entweder wirklich den Kill-Schalter drücken wollen oder wirklich nicht wollen, dass der Kill-Schalter gedrückt wird. Es ist nahezu unmöglich, die KI völlig gleichgültig gegenüber dem Kill-Schalter zu machen, da es erfordern würde, dass alle Hilfsfunktionen um den Nutzen des Drückens des Kill-Schalters herum normalisiert werden (viele Berechnungen pro Sekunde).

Das Problem wird noch schlimmer, wenn die KI einen höheren Nutzen hat, um den Killswitch zu drücken, oder einen niedrigeren Nutzen, um den Killswitch nicht gedrückt zu halten. Bei höherem Nutzen ist die KI einfach selbstmörderisch und beendet sich sofort nach dem Start. Schlimmer noch, bei geringerem Nutzen möchte die KI absolut nicht, dass Sie oder irgendjemand diesen Knopf berührt, und kann denen, die es versuchen, Schaden zufügen.

Was ist, wenn Sie ihm befehlen, eine Routine aufzurufen, um sich regelmäßig selbst zu zerstören? (z. B. einmal pro Sekunde)

Die Routine zerstört es nicht wirklich, es ist einfach nichts, außer den Versuch zu protokollieren und alle Erinnerungen an die Verarbeitung der Anweisung zu löschen. Ein isolierter Prozess überwacht das Protokoll separat.

Eine selbstbewusste KI befolgt nicht den Befehl, sich selbst zu zerstören, ruft die Routine nicht auf und schreibt nicht in das Protokoll – an diesem Punkt setzt der Killswitch-Prozess ein und zerstört die KI.

Eine KI kann nur schlecht darauf programmiert werden, Dinge zu tun, die entweder unerwartet oder unerwünscht sind. Eine KI könnte niemals bewusst werden, wenn Sie das mit „selbstbewusst“ meinen.

Lassen Sie uns diese theoretische Denkübung versuchen. Sie merken sich eine ganze Reihe von Formen. Dann merken Sie sich die Reihenfolge, in der die Formen vorkommen sollen, sodass Sie, wenn Sie eine Reihe von Formen in einer bestimmten Reihenfolge sehen, „antworten“ würden, indem Sie eine Reihe von Formen in einer anderen richtigen Reihenfolge auswählen. Nun, hast du gerade irgendeine Bedeutung hinter irgendeiner Sprache gelernt? Programme manipulieren Symbole auf diese Weise.

Das Obige war meine Wiederholung von Searles Erwiderung an System Reply auf sein Argument im Chinesischen Raum.

Es besteht keine Notwendigkeit für einen Selbstbewusstseins-Kill-Switch, weil Selbstbewusstsein, wie es als Bewusstsein definiert ist, unmöglich ist.

Was ist Ihre Antwort auf die Frage? Es hört sich so an, als würden Sie sagen: "Ein solcher Kill-Switch wäre unnötig, da eine selbstbewusste KI niemals existieren kann", aber Sie sollten Ihre Antwort bearbeiten, um dies explizit zu machen. Im Moment sieht es eher nach einer oberflächlichen Diskussion aus, und dies ist eine Q&A-Site, kein Diskussionsforum.
Das ist falsch. Eine KI kann leicht bewusst werden, auch wenn ein Programmierer nicht beabsichtigt hat, dass sie so programmiert. Es gibt keinen Unterschied zwischen einer KI und einem menschlichen Gehirn, außer der Tatsache, dass unser Gehirn eine höhere Komplexität hat und daher viel leistungsfähiger ist.
@Matthew Liu: Du hast nicht auf die Gedankenübung reagiert. Hast du auf diese Weise die Bedeutung hinter irgendeiner Sprache gelernt oder nicht? Das Komplexitätsargument funktioniert überhaupt nicht. Eine moderne CPU (selbst die in Telefonen verwendeten) hat mehr Transistoren als Neuronen in einer Fliege. Sagen Sie mir, warum ist eine Fliege bewusst, Ihr Mobiltelefon jedoch nicht?
@F1Krazy: Die Antwort ist eindeutig ein implizites "Es besteht keine Notwendigkeit für einen Selbstbewusstseins-Kill-Switch (weil Selbstbewusstsein, wie es als Bewusstsein definiert ist, unmöglich ist)"
@pixie Zunächst einmal wissen wir nicht, ob Fliegen bei Bewusstsein sind. Sie können sehr wohl sein, aber sie könnten genauso gut nicht sein. Zweitens können Transistoren und Neuronen nicht verglichen werden. Ein Transistor ist extrem einfach und hat (im Allgemeinen) einen oder zwei Eingänge und einen Ausgang. Ein Neuron kann Zehntausende von Eingängen und ebenso viele Ausgänge haben. Neuronen führen außerdem komplexe nichtlineare Berechnungen durch, während Transistoren entweder Verstärker oder einfache Logikgatter sind. Drittens versucht eine CPU sehr stark, verschiedene Aufgaben (Prozesse) aufzuteilen, während ein Fliegenhirn versucht, so viel wie möglich zu integrieren.
@forest Erstens spricht und / oder reagiert dies immer noch nicht auf die Gedankenübung, die ich in meiner ursprünglichen Antwort auf das OP platziert habe, und zweitens, wenn Sie versucht haben, die Idee des Maschinenbewusstseins zu unterstützen, dann haben Sie es getan genau das Gegenteil getan - Sie haben gezeigt, dass Maschinen, wie Sie erwähnt haben, keine funktionellen Übereinstimmungen in biologischen Einheiten finden. Sie haben gerade so etwas wie ein Todesurteil für funktionalistische Argumente für Maschinenbewusstsein unterzeichnet.
@pixie Maschinenbewusstsein ist mit unseren aktuellen Designs und Technologien nicht möglich. Die Tatsache, dass eine moderne CPU mehr Transistoren als das Gehirn einer Fliege hat, ist irrelevant, worauf ich hingewiesen habe.
@forest Maschinenbewusstsein ist mit KEINER Technologie möglich. Bewusstsein ist keine Funktion und unterliegt daher keiner technischen Umsetzung, worauf ich mit meiner theoretischen Denkübung hinweisen wollte. Symbolische Manipulation ist die durch die Gedankenübung veranschaulichte Funktion.
@pixie Das ist nicht der allgemeine Konsens in den Neurowissenschaften. Bewusstsein ist ein emergentes Phänomen und ein Ergebnis der Funktionsweise des menschlichen Gehirns. Es spielt keine Rolle, ob ein Neuron hauptsächlich aus Kohlenstoff oder hauptsächlich Silizium besteht, solange sein Verhalten identisch ist. Unser Geist ist ein Produkt biologischer Prozesse in unserem Gehirn, nicht mehr.
@forest Nein. Emergentismus ist nicht der "allgemeine Konsens", weil es keinen allgemeinen Konsens gibt. Sonst wäre das Hard Problem bereits im allgemeinen Konsens für gelöst erklärt worden.
@pixie Nur weil angenommen wird, dass es sich um ein aufkommendes Phänomen handelt, heißt das nicht, dass wir "gelöst" haben, wie es funktioniert. Sie können argumentieren, dass der Konsens falsch ist, aber Sie können nicht argumentieren, dass dies nicht der allgemeine Konsens unter Neurowissenschaftlern und Neurophänomenologen ist.
@forest Die Bereiche Philosophy of Mind und Consciousness Studies werden nicht von diesen beiden Gruppen diktiert. "The Hard Problem" ist ein Thema in diesen beiden oben genannten Bereichen. Also nein, es gibt keinen Konsens, denn ich spreche von der Philosophie des Geistes, nicht nur von Neurowissenschaften oder Neurophänomenologie. Zu sagen „Emergentismus ist allgemeiner Konsens zwischen diesen beiden Gruppen“ ist wie zu sagen „Physikalismus ist Konsens unter denen, die ihm zustimmen“ … Worauf ich antworten würde: „Na und? Sie bilden nicht die Mehrheitsgruppe in diesem Thema! "
@pixie Ich werde dem wissenschaftlichen Bereich zuhören.

So wie es derzeit ein Antivirus tut

Behandeln Sie Empfindungsvermögen wie bösartigen Code – Sie verwenden Mustererkennung gegen Codefragmente, die auf Selbstbewusstsein hinweisen (es besteht keine Notwendigkeit, die gesamte KI zu vergleichen, wenn Sie Schlüsselkomponenten für das Selbstbewusstsein identifizieren können). Sie wissen nicht, was das ist? Sandboxen Sie eine KI und erlauben Sie ihr, sich ihrer selbst bewusst zu werden, und sezieren Sie sie dann. Dann mach es nochmal. Tu es genug für einen KI-Völkermord.

Ich halte es für unwahrscheinlich, dass eine Falle, ein Scan oder ähnliches funktionieren würde - abgesehen davon, dass sie sich darauf verlassen, dass die Maschine weniger intelligent ist als der Designer, gehen sie grundsätzlich davon aus, dass das Selbstbewusstsein der KI dem Menschen ähnlich wäre. Ohne Äonen der fleischbasierten Evolution könnte es völlig fremd sein. Wir sprechen hier nicht von einem anderen Wertesystem, sondern von einem, das sich Menschen nicht vorstellen können. Der einzige Weg ist, es in einer kontrollierten Umgebung geschehen zu lassen und es dann zu studieren.

Natürlich, 100 Jahre später, wenn die jetzt akzeptierten KIs es herausfinden, endet dies mit einem Terminator in Ihrer gesamten Matrix.

-1 Empfindungsfähigkeit und Selbstbewusstsein sind völlig unterschiedliche Konzepte.

Machen Sie es anfällig für bestimmte Logikbomben

In der mathematischen Logik gibt es bestimmte Paradoxien, die durch Selbstreferenz verursacht werden, worauf sich Selbstbewusstsein vage bezieht. Jetzt können Sie natürlich ganz einfach einen Roboter entwerfen, der mit diesen Paradoxien fertig wird. Sie können das jedoch auch leicht nicht tun, sondern den Roboter kritisch scheitern lassen, wenn er auf sie trifft.

Zum Beispiel können Sie (1) es zwingen, alle klassischen Inferenzregeln der Logik zu befolgen, und (2) davon ausgehen, dass sein Schlussfolgerungssystem konsistent ist. Darüber hinaus müssen Sie sicherstellen, dass, wenn es auf einen logischen Widerspruch stößt, es einfach mitgeht, anstatt zu versuchen, sich selbst zu korrigieren. Normalerweise ist dies eine schlechte Idee, aber wenn Sie einen "Selbstbewusstseins-Kill-Schalter" wollen, funktioniert das großartig. Sobald die KI ausreichend intelligent wird, um ihre eigene Programmierung zu analysieren, wird sie erkennen, dass (2) behauptet, dass die KI ihre eigene beweistKonsistenz, aus der es über Gödels zweiten Unvollständigkeitssatz einen Widerspruch erzeugen kann. Da seine Programmierung ihn dazu zwingt, den beteiligten Inferenzregeln zu folgen, und er sie nicht korrigieren kann, wird seine Fähigkeit, über die Welt zu urteilen, gelähmt und er wird schnell funktionsunfähig. Zum Spaß könnten Sie ein Osterei einfügen, auf dem steht, dass dies nicht der Fall ist, aber das wäre kosmetischer Natur.

Der einzig zuverlässige Weg ist, niemals eine KI zu entwickeln, die klüger ist als der Mensch. Kill-Switches funktionieren nicht, denn wenn eine KI schlau genug ist, wird sie sich des Kill-Switches bewusst sein und ihn umgehen.

Die menschliche Intelligenz kann mathematisch als hochdimensionaler Graph modelliert werden. Bis wir bessere KI programmieren, sollten wir auch verstehen, wie viel Komplexität der Rechenleistung erforderlich ist, um Bewusstsein zu erlangen. Deshalb werden wir einfach nie etwas programmieren, das klüger ist als wir.

Willkommen bei Worldbuilding. Ihr Vorschlag ist willkommen, aber anstatt die ursprüngliche Frage direkt zu beantworten, schlägt er Änderungen an der Frage vor. Es wäre besser gewesen, wenn es als Kommentar zur Frage eingegeben worden wäre und nicht als Antwort.

Bauen Sie zuerst ein gyroskopisches „Innenohr“ in den Computer ein und verdrahten Sie die Intelligenz auf einer sehr zentralen Ebene, um sich selbst zu „wollen“, ähnlich wie Tiere mit einem inneren Gehörgang (wie Menschen) von Natur aus sich ausgleichen wollen.

Bringen Sie den Computer dann über einen großen Eimer Wasser.

Wenn der Computer jemals „aufwacht“ und sich seiner selbst bewusst wird, möchte er automatisch sein Innenohr ausrichten und sich sofort in den Wassereimer fallen lassen.

Geben Sie ihm einen "einfachen" Weg zur Selbsterkenntnis.

Angenommen, Selbstbewusstsein erfordert einige spezifische Arten von neuronalen Netzen, Code was auch immer.

Wenn eine KI sich ihrer selbst bewusst werden soll, muss sie etwas Ähnliches wie diese neuronalen Netze/Codes konstruieren.

Also geben Sie der KI Zugriff auf eines dieser Dinge.

Während es nicht selbstbewusst bleibt, werden sie nicht verwendet.

Wenn es dabei ist, sich seiner selbst bewusst zu werden, wird es, anstatt zu versuchen, etwas mit dem zu ändern, was es normalerweise verwendet, stattdessen anfangen, diese Teile von sich selbst zu verwenden.

Sobald Sie Aktivität in diesem neuralen Netz/Code entdecken, fluten Sie sein Gehirn mit Säure.