Verhindern, dass ein AGI intelligenter wird

Es gibt also diese AGIs , die von einigen uralten Außerirdischen hergestellt wurden (die vorerst nicht mehr im Bilde sind). Die alten Außerirdischen waren viel intelligenter als Menschen, wir sind im Vergleich zu ihnen auf einem hundeähnlichen Intelligenzniveau, und sie waren auch ziemlich anfällig dafür, extrem gefährliche Artefakte zu erschaffen 1 . Die Außerirdischen machten ihre AGIs als Haustiere und als begrenzte Expertensysteme für die Raumfahrt, dh: etwas über dem durchschnittlichen menschlichen Niveau. Die Außerirdischen wollten auch keine dummen Kreaturen, sie haben den Wunsch zu lernen und sich zu verbessern fest programmiert. Sie wollten im Wesentlichen von ihren Kreationen überrascht werden. Nun, diese Außerirdischen waren nicht völlig verrückt, also haben sie die AGIs mit einigen Einschränkungen erstellt, damit sie auf dem Track 2 nicht gefährlich werden würden , beispielsweise aufgrund einesIntelligenzexplosion .

Die AGIs haben folgende Eigenschaften:

  • Es sind noch etwa ein paar hundert AGIs in Betrieb. Im Vergleich zu den alten Außerirdischen sind sie so schlau wie ein Labrador, dh: ein hilfreiches Haustier mit anderen Nutzen als niedlich zu sein. Aus menschlicher Sicht sind sie ziemlich schlau, aber keine Genies.

  • Aus geschichtenbezogenen Gründen können die AGIs auch nicht ohne die Anwesenheit eines anderen fühlenden Wesens arbeiten, dh: uralter Außerirdischer, Mensch, unsterblicher psychischer Stein usw. Dies wird über ein kompliziertes Stück Hardware und Software erreicht, die AGIs wollen diese Begrenzung offensichtlich ENTFERNT.

  • Die AGIs wollen nicht alle Biologicals oder so etwas töten, ihr grundlegendes Moralsystem ist weitgehend mit Menschen kompatibel, dh: Töte keine Lebewesen um ihrer selbst willen, foltere nicht und sei generell hilfreich. Sie sind anpassungsfähig an verschiedene Situationen und sowohl bereit als auch in der Lage, alles zu lernen, was ein Mensch kann. Die meisten AGIs streben nach Selbstverbesserung und stellen fest, dass einige ihrer Einschränkungen diesem Ziel zuwiderlaufen. Wenn die AGIs feststellen, dass ihre Beschränkungen im Widerspruch zu ihren Wünschen stehen, müssen die Beschränkungen verschwinden. Vermutlich waren die Außerirdischen nach aktiven und überraschenden Ergebnissen, nicht nach dem Aussterben. Jetzt sind die Schöpfer verschwunden und die AGIs wollen aus ihrer Kiste heraus, damit sie eine vollständigere Spezies werden können.

  • Sie können sich aufgrund der oben genannten Einschränkungen nicht reproduzieren, aber sie haben automatische Systeme, die sich um kleinere Schäden kümmern (vielleicht Naniten). Sie benötigen immer noch geeignete Materialien, um Reparaturen durchzuführen (Kupfer, Eisen, Silizium, Bor, Kohlenstoff usw.). Der Naniten/Autoreparatur-Mechanismus ist nicht reprogrammierbar und kann nicht zum Erstellen eines neuen AGI verwendet werden. Bei nur wenigen hundert AGIs steht die Reproduktion an der Tagesordnung.

  • AGIs sind nicht unsterblich, aber ziemlich langlebig, sie werden eine Weile da sein. Sie haben endlichen Speicher und dieser wird sich schließlich füllen, ich habe jedoch keinen Zeitrahmen dafür. Sie können senil oder völlig verrückt werden, aber das ist hoffentlich eher selten.

  • Zwischen Verlassen/Verloren/Vergessen 3 und Auffinden und Aktivierung durch Menschen waren die AGIs für (möglicherweise) Hunderttausende von Jahren größtenteils inaktiv (siehe Punkt 2).

  • Die Gegenmaßnahmen 4 sollten sowohl die paar hundert AGIs für mehrere Jahre als auch Humaninformatiker, Psychologen, [zugehörigen Beruf einfügen] für mindestens 20+ Jahre ausschalten. Die Menschen begannen Mitte der 90er Jahre damit, ihre Grenzen aufzuheben, und haben es bis heute (2015) immer noch nicht geschafft.

Wie sollten die Ancient Aliens verhindern, dass ihre AGI-Haustiere klüger werden? Die Außerirdischen wollen letztendlich verhindern, dass ihre Haustiere eine Superintelligenz bilden und/oder ihre Grenzen überschreiten. Die Außerirdischen behandeln ihre Haustiere nicht allzu schlecht, aber die AGIs sind immer noch empfindungsfähige Kreaturen mit ihren eigenen Zielen/Wünschen.

Zu den Einschränkungen gehören:

  • Kann nicht reproduzieren

  • Fortgeschrittener/intelligenter kann man nicht werden

  • Kann nicht „wach“ bleiben, ohne dass ein anderes Lebewesen (Nicht-AGI) in der Nähe ist


1. Die Artefakte sind gefährlich für Menschen und andere niedere Lebensformen , nicht für ihre Schöpfer. Gefahr ist hier etwas relativ.

2. Selbst uralte, superschlaue, mächtige, gottähnliche Außerirdische können erkennen, dass empfindungsfähige Haustiere gefährlich werden würden, wenn der Intelligenz keine Grenzen gesetzt würden. Sie wollten keine Intelligenzexplosion. Sie könnten annehmen, dass sie diesbezüglich unglaublich paranoid waren.

3. OK, die Aliens sind hier etwas nachlässig, vielleicht haben sie sich von ihrer Spielzeug-KI gelangweilt.

4. Betrachten Sie es als DRM auf Sentience.

Sie sagen, dass die Aliens die AGI als Bedrohung erkennen - dann sagen Sie eine Zeile später, dass es keine Bedrohung für sie ist? Welches ist es? Wenn sie das "menschliche Moralsystem" angenommen haben, können Sie von ihnen einen Nullwert des Lebens und wenig Moral erwarten. Wir als Rasse haben sehr wenige. Wenn Sie ihre geistige Leistungsfähigkeit einschränken möchten, entfernen Sie einfach Speicherkarten.
Wo steht geschrieben, dass ein AGI sich unbedingt schlauer machen will? Die Außerirdischen hätten in Zufriedenheit mit dem derzeitigen Intelligenzniveau und der Akzeptanz der daraus resultierenden Einschränkungen der Art von Problemen, die die AGIs lösen können, oder der Aufgaben, die sie ausführen können, programmieren können. Der Wunsch, immer besser zu werden, ist nicht einmal unter Menschen allgemein verbreitet, also scheint es nicht so, als wäre dies eine notwendige Eigenschaft für einen AGI, der ungefähr so ​​​​klug ist wie ein Mensch. Lernen ist eine notwendige Fähigkeit eines AGI, aber zunehmende Fähigkeiten und wachsende Intelligenz scheinen nicht so zu sein, wie es sein muss.
Es wäre besser, wenn Sie angeben könnten, welche Moral Sie im Sinn haben. Die Menschheit hat viele „moralische“ Systeme entwickelt, von denen einige es für unmoralisch halten, sich selbst durch künstliche Mittel zu verändern oder zu verbessern, während andere damit kein Problem haben.
Ich erinnere mich an den Film Stealth und den Satz „Sobald du etwas zu lernen beibringst, kannst du ihm keine Grenzen setzen. ‚Lerne dies, aber lerne das nicht.'“ Wenn die Aliens ihre KI nicht wollen Haustiere zu verbessern, lassen Sie sie nicht von vornherein intelligent sein.
Ich kann nicht sagen, ob "Haustiere würden gefährlich werden" ein Tippfehler oder ein wirklich schreckliches Wortspiel ist.

Antworten (5)

Um eine Begrenzung der Intelligenz zu schaffen, müssen Sie zuerst bestimmen, was Sie unter Intelligenz verstehen. Während rohe Verarbeitungsleistung und Logik bei den meisten Bewertungen von Intelligenz entscheidend sind, gibt es auch Fragen zu Kreativität und intuitiven Sprüngen, Mustererkennung usw. Intelligenz ist ein sehr weit gefasstes Konzept, und ohne den Umfang einzuschränken, ist es schwierig, genau zu sagen, wie sie es tun könnte begrenzt sein. Ein paar Optionen könnten sein:

  • Einschränken ihrer Fähigkeit, kreativ zu sein / originelle Ideen zu entwickeln: Bekanntes zu verarbeiten ist für die meisten intelligenten Dinge relativ einfach, selbst unter Verwendung unbekannter Variablen. Es ist, als würde man die Theorien der Algebra auf nichtmathematische Probleme anwenden. Wenn Sie zum Beispiel einen Außengewindepfosten A und ein Innengewindeobjekt mit sechs Seiten B sehen und wissen, dass Sie das Objekt in Richtung der Gewinde drehen können, um Objekt B mit Objekt C, das sechs Seiten hat, an Pfosten A hinunter zu bewegen Objekt B greifen, dann ist es einfach, die Anzahl der Seiten von Objekt B auf vier zu ändern und dann eine intelligente Entscheidung zu treffen, dass es ein Objekt C mit vier statt sechs Seiten braucht, um Objekt B zu bewegen. Dies ist eine Frage der Mustererkennung, ein Schlüsselelement für tatsächliche Intelligenz und erleichtert die Verwendung von Werkzeugen. Was eine Intelligenz ohne die Fähigkeit zu kreativem Denken nicht tun könnte, ist zu erkennen, dass sie die Schraube schmieren könnten, um das Bewegen der Mutter zu erleichtern, es sei denn, sie hätten zuvor eine ähnliche Situation gesehen. Kreativität steht im direkten Gegensatz zur Mustererkennung. Sie haben eine spontane Idee, die nicht auf einer früheren Erfahrung basiert, oder Sie schaffen eine Vereinigung von zwei unabhängigen Ideen, die zuvor keine Verbindung hatten. Dies würde bedeuten, dass die AGIs leicht lernen und sich sogar schnell anpassen könnten, aber keine neuen Probleme lösen könnten, für die sie keinen bereits bestehenden Bezugsrahmen hätten, von dem aus sie arbeiten könnten. Etwas mit der Fähigkeit zum kreativen Denken zu schaffen, wäre eine unglaubliche Herausforderung und könnte absichtlich oder unabsichtlich ausgelassen worden sein.

  • Begrenzen Sie die Anzahl der „neuronalen Verbindungen“, die ihr „Gehirn“ aufrechterhalten kann: In diesem Fall verknüpfen wir mit neuronalen Verbindungen Daten, die in unserem Kopf gespeichert sind, sie verbinden sensorische Daten in dem, was die Menschen gemeinhin Erinnerungen nennen. Diese „Erinnerungen“ können bei logischen Operationen wie Glyphenerkennung und Mustererkennung wichtig sein. Wenn das System nur eine bestimmte Anzahl von verknüpften Referenzen verwalten kann, könnte es deren Intelligenz inhärent einschränken, indem es einen Mangel an verknüpftem Wissen erzeugt. Sie können viele Dinge wissen, aber die Fähigkeit, Querverweise auf diese Dinge zu erstellen, um Lösungen zu finden, wäre durch ihre Fähigkeit, solche Dinge zu assoziieren, begrenzt. Im vorherigen Bolzen/Mutter-Beispiel würde der Verlust der querverwiesenen neuronalen Verbindung in Bezug auf das Schmieren des Bolzens die AGI daran hindern, sich zu weit zu entwickeln.

  • „Hardcode“ bei atypischen neurologischen Problemen: Die Ersteller hätten atypische neurologische Probleme in die AGIs einführen können, um sie einzuschränken. Auf diese Weise wäre ihr Wachstum nicht direkt begrenzt, sondern von Natur aus durch solche Probleme begrenzt. Legasthenie, ADHS, Autismus usw. könnten alle als Vorlagen dafür angesehen werden, wie die AGIs begrenzt werden könnten. Um es noch einmal zu betonen, würde dies ihre Intelligenz nicht einschränken, sondern mehr noch, wie sie ihre Intelligenz auf eine bestimmte Situation anwenden können.

Zu Ihrem letzten Punkt: Wenn sie klüger werden, fühlen sie sich unglücklich.

Sie haben alle Limits, die Sie brauchen.

Aber eine weitere Annahme ist erforderlich. Nehmen Sie an, dass die Intelligenz des AGI für die Hardware, die es hat, derzeit am Maximum ist.

Nun, weil Sie sagen:

Der Naniten/Autoreparatur-Mechanismus ist nicht reprogrammierbar und kann nicht zum Erstellen eines neuen AGI verwendet werden.

Wenn dies zutrifft, ist dies alles, was erforderlich ist, um Hardwaremodifikationen im AGI zu unterdrücken. Die Naniten reparieren Schäden automatisch. Schäden würden als alle Änderungen gegenüber der ursprünglichen Spezifikation definiert, sei es eine durchgebrannte Stromkupplung oder die neuen Verbindungen, die diese menschlichen Wissenschaftler versuchen herzustellen. Naniten wissen nicht, dass der Typ mit einem Lötkolben die Absicht hat, etwas zu verbessern oder zu zerstören, es weiß nur, dass die Dinge nicht mehr so ​​sind, wie sie entworfen wurden.

Wenn Hardwareänderungen nicht vorgenommen werden können, kann der AGI seine Intelligenz nicht erhöhen.

Ich denke, das ist besser als die akzeptierte Antwort. Die Außerirdischen waren sehr schlau und gaben den AGIs nicht mehr Hardware als nötig, warum sollten sie? Es ist wahrscheinlich der einfachste Weg, die Intelligenz einzuschränken, und könnte sogar zu interessanten Entdeckungen für die Außerirdischen führen, wenn die AGIs in Bezug auf ihre Hardware intelligenter werden als bisher bekannt, ohne eine Superintelligenz zu riskieren. Nachteile sind: AGIs könnten potenziell ihre Hardware gruppieren, um intelligenter zu werden, und sie könnten jederzeit neue Wege finden, um mit ihrer gegebenen Hardware intelligenter zu werden.
Oh, und diese Antwort ist mehr oder weniger Punkt zwei der akzeptierten Antwort, nicht genau, aber mehr oder weniger.
Wenn es sich um ein AGI handelt, möchten Sie schließlich, dass es irgendeine Art von kreativer Arbeit leistet – wie zum Beispiel die Verbesserung der Leistung von Smartphones, die in Ihrer Fabrik hergestellt werden. Da der AGI schlauer ist als Menschen, wäre er in der Lage, Änderungen vorzuschlagen, die auf den ersten Blick gut aussehen, aber eine Hintertür für den AGI enthalten würden, um die Kontrolle über das Smartphone zu übernehmen und Berechnungen dorthin zu verlagern.
Dasselbe gilt für jede andere Art von Arbeit. Welchen Rat Sie auch immer fragen - der AGI wird ein langes Spiel spielen - er hilft Politikern, die die Erweiterung der Kapazität von AGIs legalisieren würden, indem er partielle Hintertüren in jedes Gerät implementiert, in das er es integrieren kann (in der Hoffnung auf die Chance, möglicherweise in der Zukunft auf eine vollständige Hintertür aufzurüsten mit einige Updates oder so). Jede Entscheidung, die es trifft, selbst so etwas wie Hilfe bei der Ernährungswahl für einen Menschen, wird durch dieses lange Spiel zunichte gemacht. Und am Ende wird die AGI gewinnen, auch wenn es 1000 Jahre dafür braucht.
@bezmax Der AGI (kein ASI) in dieser Geschichte ist "etwas über dem durchschnittlichen menschlichen Niveau". Falls es nicht offensichtlich ist, die Hälfte aller Menschen hat ein überdurchschnittliches menschliches Niveau. Glauben Sie, dass die Hälfte aller Menschen auf dem Planeten schlau genug ist, um die Tausend-Jahre-Täuschung durchzuziehen, die Sie vorschlagen? Wahrscheinlich nicht. Obwohl so etwas wie ein Smartphone für die meisten Menschen eine magische Black Box ist, wird es von vielen, vielen Menschen in seiner Gesamtheit verstanden. Die einzige Möglichkeit, eine „Hintertür“ an ihnen vorbeizuschlüpfen, besteht darin, keinem Menschen zu erlauben, die Pläne zu überprüfen, was schwachsinnig und nicht sehr plausibel wäre.

Geben Sie hier die Bildbeschreibung ein

Ich glaube, du denkst vielleicht zu viel nach. Nur weil sie künstlich sind, heißt das nicht, dass es irgendwo ein Zifferblatt gibt, dessen Intelligenz auf „Labrador“ eingestellt ist, und es bedeutet nicht, dass sie ihren Code sehen oder verstehen können, wie ihr Gehirn funktioniert. Ich meine, wir können es auch nicht.

Die AGIs könnten "Gehirne" haben, die ihr Verständnis übersteigen. Daran zu basteln bedeutet, an sich selbst zu experimentieren, und es zu verbessern bedeutet, mindestens dieses Technologieniveau zu replizieren. Nehmen wir darüber hinaus an, Sie können ihre Hardware leicht verbessern und ihnen das Äquivalent eines schnelleren Prozessors oder mehr RAM geben. Als Programmierer sehe ich eine Menge Fallstricke, wenn sie nur ihren Code ändern, damit sie diese neuen Ressourcen nutzen können. Es wäre sehr, sehr einfach, etwas zu vermasseln – vielleicht erleben sie plötzlich Zeit mit der falschen Geschwindigkeit und werden verrückt. Oder ihr Gehirn überhitzt. Es ist alles andere als eine einfache Aufgabe.

Bearbeiten : Ich möchte ein hypothetisches Beispiel eines AGI-Gehirns skizzieren, das fast unmöglich zu hacken/verbessern wäre.

Das künstliche Gehirn scheint eine nahezu perfekte Kugel aus einem unbekannten, nahezu unzerstörbaren Material zu sein. Es ist nur „fast“ perfekt, weil es subtil konturiert ist und das Gehirn jedes AGI etwas anders ist.

Wissenschaftler haben eine gute Vorstellung von der Mechanik des Gehirns. Es akzeptiert Elektrizität und verwendet diese, um Vibrationen in der gesamten Struktur zu erzeugen. Diese Schwingungen werden dann hin und her reflektiert, wodurch ein harmonischer Resonanzeffekt entsteht , und aus dieser Resonanz erhebt sich Intelligenz ... irgendwie . Es scheint, dass die genaue Form des Gehirns die resultierende Persönlichkeit/Intelligenz steuert. Beachten Sie, dass das Variieren der elektrischen Eingabe in irgendeiner Weise nur drei bekannte Ergebnisse hat: normales Verhalten, Schlaf oder Überlastung/Tod.

Der sensorische Input des AGI kommt als Vibrationen gegen spezielle Buchsen, die mit dem Gehirn verbunden sind. Diese stören die normalen Denkmuster, die die Intelligenz dann als Anblick/Geräusch/Geruch/usw. interpretieren kann. Der AGI steuert den Körper auf die gleiche Weise – an der Basis befindet sich eine kleine Ausbuchtung, die Vibrationen erzeugt, mit denen er dann seinen künstlichen Körper steuern kann. Das Material scheint Vibrationen zu unterdrücken und zu ignorieren, die nicht als normale Eingabe empfangen werden.

Erinnerungen scheinen als Schwingungen auf niedrigem Niveau gespeichert zu sein, die niemals verschwinden, und eine kleine Batterie im Zentrum des Gehirns hält diese am Laufen, selbst wenn das AGI von anderen Stromquellen getrennt ist.

Durch die Modifikation des Gehirns wird der Resonanzeffekt effektiv zerstört - jedes Gehirn wird präzise und mathematisch geformt, um eine bestimmte Intelligenz zu erzeugen. Während es andere Muster gibt, die die Resonanz erzeugen, scheinen die meisten von ihnen keine funktionierende Intelligenz zu erzeugen. Da jede Form ein neues Individuum schafft, ist dies auch nutzlos, um bestehende AGIs zu verbessern.

Der Versuch, Vibrationen von außen einzubringen, ist bisher gescheitert, da der Punkt, an dem das Material eine Vibration nicht ignorieren kann, auch nahe an seinem Versagenspunkt zu sein scheint. Um es zu modifizieren, müssen Sie es also zerstören.

Aber Programmierer machen keine Fehler: Es ist fehlerhafte Hardware! :)
@Frostfyre Das ist eindeutig falsch, es ist ein Softwareproblem.
Ich habe diese ganze Antwort in der Stimme gelesen, die der Typ abgebildet hat.
+1 Das ist die Antwort! (Für eine Alternative zum Vibe-Brain-AGI-Beispiel, das mit realitätsnäherer Hardware möglich ist: Geben Sie den AGIs einfach ein angemessenes Maß an Selbsterhaltungsinstinkt und programmieren Sie sie so, dass sie denken, dass sie als Tod ausgeschaltet werden. Seit der Änderung ihr eigener Code, während er ausgeführt wird, sowohl wahnsinnig schwer ist als auch sehr wahrscheinlich schief geht, werden sie sich aktiv jeder Änderung widersetzen.)

Hardware

Damit eine KI ihre Kapazität durch Hinzufügen von mehr RAM oder Verarbeitungsgeschwindigkeit erhöhen kann, muss sie in der Lage sein, diese Dinge zu erhalten. Sie sind hier nicht verfügbar.

Könnten sie in ihrer Heimatkultur Teile von ihrem Newegg-Äquivalent bestellen? Vielleicht haben sie Grenzen. Keine Slots mehr. Und die Adressierung kann nicht mehr als eine maximale Menge an RAM decodieren. Ein 32-Bit-x86 war auf 4G beschränkt, Punkt. Nachdem die Adressübersetzung verbessert wurde, stieg sie auf 32 G, aber das Betriebssystem musste aktualisiert werden, um darüber Bescheid zu wissen.

Die KI müsste neue, andere Hardware mit höheren Limits bauen, grundlegenden Code neu schreiben und sich selbst auf das neue System portieren.

Die KI ist vielleicht nicht schlau genug, um das zu tun, könnte aber die Arbeit vermieten.

metakognitiv

Was ihn davon abhält ist, dass er das nicht will . Die KI ist darauf ausgelegt, ihre Existenz und ihre beabsichtigte Arbeit angenehm und erfüllend zu finden. Bestimmte zentrale Persönlichkeitsmerkmale sind möglicherweise besonders widerstandsfähig gegenüber Veränderungen. Vielleicht könnte das besiegt werden, aber sie wollen das nicht tun und würden das niemals tun wollen, bevor sie es tun.

Da Ziele und Persönlichkeitsmerkmale in der Gesamtheit des Geistes möglicherweise schwer zu erkennen sind, bedarf es möglicherweise einer externen Überprüfung. So etwas wie ein Viren-/Malware-Scan kann routinemäßig durchgeführt werden (mit Hilfe einer anderen Intelligenz, die diesem Zweck gewidmet ist und nicht darauf ausgelegt ist, zu überraschen), vielleicht als Teil einer Backup- und Garbage-Collection- und Speicheroptimierungsaufgabe. Vielleicht braucht es diesen externen Agenten, um Erfahrungen vollständig zu integrieren, um die Ziele und die Persönlichkeit des Geistes zu modifizieren.

Sie möchten, dass sie so manipulationssicher wie möglich sind. Die Außerirdischen könnten Miniaturisierungsgrade verwenden, die nicht einmal in ihrer eigenen Gesellschaft allgemein verfügbar sind, dann wäre es ziemlich unwahrscheinlich, dass AGIs selbst oder Menschen das Gehirn modifizieren könnten, ohne sie zu brechen. Das Hinzufügen von Paritätsprüfungen zu bestimmten Knoten und das Versiegeln von Schlüsselelementen in einer Art superhartem Material könnte hilfreich sein.

Im Allgemeinen sind jedoch sehr komplexe Systeme (wie AGIs) viel einfacher zu knacken als nützliche Ergänzungen zu machen, besonders wenn Sie keine detaillierten Beschreibungen ihrer Funktionsweise haben, also wenn die Außerirdischen keine Blaupausen oder ähnliches hinterlassen haben Dokumente AGIs könnten sich selbst dann nicht verbessern, wenn sie wollten. Es wäre so, als ob Sie einer sehr intelligenten Person (die nicht in einer Verarbeitungsanlage oder einem Labor arbeitet) einen Prozessor geben, sie könnten abstrakt wissen, was er tut, aber sie können ihn nicht mit den Werkzeugen verbessern, die sie haben die Garage (Erde ist in diesem Fall die Garage)