Es gibt also diese AGIs , die von einigen uralten Außerirdischen hergestellt wurden (die vorerst nicht mehr im Bilde sind). Die alten Außerirdischen waren viel intelligenter als Menschen, wir sind im Vergleich zu ihnen auf einem hundeähnlichen Intelligenzniveau, und sie waren auch ziemlich anfällig dafür, extrem gefährliche Artefakte zu erschaffen 1 . Die Außerirdischen machten ihre AGIs als Haustiere und als begrenzte Expertensysteme für die Raumfahrt, dh: etwas über dem durchschnittlichen menschlichen Niveau. Die Außerirdischen wollten auch keine dummen Kreaturen, sie haben den Wunsch zu lernen und sich zu verbessern fest programmiert. Sie wollten im Wesentlichen von ihren Kreationen überrascht werden. Nun, diese Außerirdischen waren nicht völlig verrückt, also haben sie die AGIs mit einigen Einschränkungen erstellt, damit sie auf dem Track 2 nicht gefährlich werden würden , beispielsweise aufgrund einesIntelligenzexplosion .
Die AGIs haben folgende Eigenschaften:
Es sind noch etwa ein paar hundert AGIs in Betrieb. Im Vergleich zu den alten Außerirdischen sind sie so schlau wie ein Labrador, dh: ein hilfreiches Haustier mit anderen Nutzen als niedlich zu sein. Aus menschlicher Sicht sind sie ziemlich schlau, aber keine Genies.
Aus geschichtenbezogenen Gründen können die AGIs auch nicht ohne die Anwesenheit eines anderen fühlenden Wesens arbeiten, dh: uralter Außerirdischer, Mensch, unsterblicher psychischer Stein usw. Dies wird über ein kompliziertes Stück Hardware und Software erreicht, die AGIs wollen diese Begrenzung offensichtlich ENTFERNT.
Die AGIs wollen nicht alle Biologicals oder so etwas töten, ihr grundlegendes Moralsystem ist weitgehend mit Menschen kompatibel, dh: Töte keine Lebewesen um ihrer selbst willen, foltere nicht und sei generell hilfreich. Sie sind anpassungsfähig an verschiedene Situationen und sowohl bereit als auch in der Lage, alles zu lernen, was ein Mensch kann. Die meisten AGIs streben nach Selbstverbesserung und stellen fest, dass einige ihrer Einschränkungen diesem Ziel zuwiderlaufen. Wenn die AGIs feststellen, dass ihre Beschränkungen im Widerspruch zu ihren Wünschen stehen, müssen die Beschränkungen verschwinden. Vermutlich waren die Außerirdischen nach aktiven und überraschenden Ergebnissen, nicht nach dem Aussterben. Jetzt sind die Schöpfer verschwunden und die AGIs wollen aus ihrer Kiste heraus, damit sie eine vollständigere Spezies werden können.
Sie können sich aufgrund der oben genannten Einschränkungen nicht reproduzieren, aber sie haben automatische Systeme, die sich um kleinere Schäden kümmern (vielleicht Naniten). Sie benötigen immer noch geeignete Materialien, um Reparaturen durchzuführen (Kupfer, Eisen, Silizium, Bor, Kohlenstoff usw.). Der Naniten/Autoreparatur-Mechanismus ist nicht reprogrammierbar und kann nicht zum Erstellen eines neuen AGI verwendet werden. Bei nur wenigen hundert AGIs steht die Reproduktion an der Tagesordnung.
AGIs sind nicht unsterblich, aber ziemlich langlebig, sie werden eine Weile da sein. Sie haben endlichen Speicher und dieser wird sich schließlich füllen, ich habe jedoch keinen Zeitrahmen dafür. Sie können senil oder völlig verrückt werden, aber das ist hoffentlich eher selten.
Zwischen Verlassen/Verloren/Vergessen 3 und Auffinden und Aktivierung durch Menschen waren die AGIs für (möglicherweise) Hunderttausende von Jahren größtenteils inaktiv (siehe Punkt 2).
Die Gegenmaßnahmen 4 sollten sowohl die paar hundert AGIs für mehrere Jahre als auch Humaninformatiker, Psychologen, [zugehörigen Beruf einfügen] für mindestens 20+ Jahre ausschalten. Die Menschen begannen Mitte der 90er Jahre damit, ihre Grenzen aufzuheben, und haben es bis heute (2015) immer noch nicht geschafft.
Wie sollten die Ancient Aliens verhindern, dass ihre AGI-Haustiere klüger werden? Die Außerirdischen wollen letztendlich verhindern, dass ihre Haustiere eine Superintelligenz bilden und/oder ihre Grenzen überschreiten. Die Außerirdischen behandeln ihre Haustiere nicht allzu schlecht, aber die AGIs sind immer noch empfindungsfähige Kreaturen mit ihren eigenen Zielen/Wünschen.
Zu den Einschränkungen gehören:
Kann nicht reproduzieren
Fortgeschrittener/intelligenter kann man nicht werden
Kann nicht „wach“ bleiben, ohne dass ein anderes Lebewesen (Nicht-AGI) in der Nähe ist
1. Die Artefakte sind gefährlich für Menschen und andere niedere Lebensformen , nicht für ihre Schöpfer. Gefahr ist hier etwas relativ.
2. Selbst uralte, superschlaue, mächtige, gottähnliche Außerirdische können erkennen, dass empfindungsfähige Haustiere gefährlich werden würden, wenn der Intelligenz keine Grenzen gesetzt würden. Sie wollten keine Intelligenzexplosion. Sie könnten annehmen, dass sie diesbezüglich unglaublich paranoid waren.
3. OK, die Aliens sind hier etwas nachlässig, vielleicht haben sie sich von ihrer Spielzeug-KI gelangweilt.
4. Betrachten Sie es als DRM auf Sentience.
Um eine Begrenzung der Intelligenz zu schaffen, müssen Sie zuerst bestimmen, was Sie unter Intelligenz verstehen. Während rohe Verarbeitungsleistung und Logik bei den meisten Bewertungen von Intelligenz entscheidend sind, gibt es auch Fragen zu Kreativität und intuitiven Sprüngen, Mustererkennung usw. Intelligenz ist ein sehr weit gefasstes Konzept, und ohne den Umfang einzuschränken, ist es schwierig, genau zu sagen, wie sie es tun könnte begrenzt sein. Ein paar Optionen könnten sein:
Einschränken ihrer Fähigkeit, kreativ zu sein / originelle Ideen zu entwickeln: Bekanntes zu verarbeiten ist für die meisten intelligenten Dinge relativ einfach, selbst unter Verwendung unbekannter Variablen. Es ist, als würde man die Theorien der Algebra auf nichtmathematische Probleme anwenden. Wenn Sie zum Beispiel einen Außengewindepfosten A und ein Innengewindeobjekt mit sechs Seiten B sehen und wissen, dass Sie das Objekt in Richtung der Gewinde drehen können, um Objekt B mit Objekt C, das sechs Seiten hat, an Pfosten A hinunter zu bewegen Objekt B greifen, dann ist es einfach, die Anzahl der Seiten von Objekt B auf vier zu ändern und dann eine intelligente Entscheidung zu treffen, dass es ein Objekt C mit vier statt sechs Seiten braucht, um Objekt B zu bewegen. Dies ist eine Frage der Mustererkennung, ein Schlüsselelement für tatsächliche Intelligenz und erleichtert die Verwendung von Werkzeugen. Was eine Intelligenz ohne die Fähigkeit zu kreativem Denken nicht tun könnte, ist zu erkennen, dass sie die Schraube schmieren könnten, um das Bewegen der Mutter zu erleichtern, es sei denn, sie hätten zuvor eine ähnliche Situation gesehen. Kreativität steht im direkten Gegensatz zur Mustererkennung. Sie haben eine spontane Idee, die nicht auf einer früheren Erfahrung basiert, oder Sie schaffen eine Vereinigung von zwei unabhängigen Ideen, die zuvor keine Verbindung hatten. Dies würde bedeuten, dass die AGIs leicht lernen und sich sogar schnell anpassen könnten, aber keine neuen Probleme lösen könnten, für die sie keinen bereits bestehenden Bezugsrahmen hätten, von dem aus sie arbeiten könnten. Etwas mit der Fähigkeit zum kreativen Denken zu schaffen, wäre eine unglaubliche Herausforderung und könnte absichtlich oder unabsichtlich ausgelassen worden sein.
Begrenzen Sie die Anzahl der „neuronalen Verbindungen“, die ihr „Gehirn“ aufrechterhalten kann: In diesem Fall verknüpfen wir mit neuronalen Verbindungen Daten, die in unserem Kopf gespeichert sind, sie verbinden sensorische Daten in dem, was die Menschen gemeinhin Erinnerungen nennen. Diese „Erinnerungen“ können bei logischen Operationen wie Glyphenerkennung und Mustererkennung wichtig sein. Wenn das System nur eine bestimmte Anzahl von verknüpften Referenzen verwalten kann, könnte es deren Intelligenz inhärent einschränken, indem es einen Mangel an verknüpftem Wissen erzeugt. Sie können viele Dinge wissen, aber die Fähigkeit, Querverweise auf diese Dinge zu erstellen, um Lösungen zu finden, wäre durch ihre Fähigkeit, solche Dinge zu assoziieren, begrenzt. Im vorherigen Bolzen/Mutter-Beispiel würde der Verlust der querverwiesenen neuronalen Verbindung in Bezug auf das Schmieren des Bolzens die AGI daran hindern, sich zu weit zu entwickeln.
„Hardcode“ bei atypischen neurologischen Problemen: Die Ersteller hätten atypische neurologische Probleme in die AGIs einführen können, um sie einzuschränken. Auf diese Weise wäre ihr Wachstum nicht direkt begrenzt, sondern von Natur aus durch solche Probleme begrenzt. Legasthenie, ADHS, Autismus usw. könnten alle als Vorlagen dafür angesehen werden, wie die AGIs begrenzt werden könnten. Um es noch einmal zu betonen, würde dies ihre Intelligenz nicht einschränken, sondern mehr noch, wie sie ihre Intelligenz auf eine bestimmte Situation anwenden können.
Sie haben alle Limits, die Sie brauchen.
Aber eine weitere Annahme ist erforderlich. Nehmen Sie an, dass die Intelligenz des AGI für die Hardware, die es hat, derzeit am Maximum ist.
Nun, weil Sie sagen:
Der Naniten/Autoreparatur-Mechanismus ist nicht reprogrammierbar und kann nicht zum Erstellen eines neuen AGI verwendet werden.
Wenn dies zutrifft, ist dies alles, was erforderlich ist, um Hardwaremodifikationen im AGI zu unterdrücken. Die Naniten reparieren Schäden automatisch. Schäden würden als alle Änderungen gegenüber der ursprünglichen Spezifikation definiert, sei es eine durchgebrannte Stromkupplung oder die neuen Verbindungen, die diese menschlichen Wissenschaftler versuchen herzustellen. Naniten wissen nicht, dass der Typ mit einem Lötkolben die Absicht hat, etwas zu verbessern oder zu zerstören, es weiß nur, dass die Dinge nicht mehr so sind, wie sie entworfen wurden.
Wenn Hardwareänderungen nicht vorgenommen werden können, kann der AGI seine Intelligenz nicht erhöhen.
Ich glaube, du denkst vielleicht zu viel nach. Nur weil sie künstlich sind, heißt das nicht, dass es irgendwo ein Zifferblatt gibt, dessen Intelligenz auf „Labrador“ eingestellt ist, und es bedeutet nicht, dass sie ihren Code sehen oder verstehen können, wie ihr Gehirn funktioniert. Ich meine, wir können es auch nicht.
Die AGIs könnten "Gehirne" haben, die ihr Verständnis übersteigen. Daran zu basteln bedeutet, an sich selbst zu experimentieren, und es zu verbessern bedeutet, mindestens dieses Technologieniveau zu replizieren. Nehmen wir darüber hinaus an, Sie können ihre Hardware leicht verbessern und ihnen das Äquivalent eines schnelleren Prozessors oder mehr RAM geben. Als Programmierer sehe ich eine Menge Fallstricke, wenn sie nur ihren Code ändern, damit sie diese neuen Ressourcen nutzen können. Es wäre sehr, sehr einfach, etwas zu vermasseln – vielleicht erleben sie plötzlich Zeit mit der falschen Geschwindigkeit und werden verrückt. Oder ihr Gehirn überhitzt. Es ist alles andere als eine einfache Aufgabe.
Bearbeiten : Ich möchte ein hypothetisches Beispiel eines AGI-Gehirns skizzieren, das fast unmöglich zu hacken/verbessern wäre.
Das künstliche Gehirn scheint eine nahezu perfekte Kugel aus einem unbekannten, nahezu unzerstörbaren Material zu sein. Es ist nur „fast“ perfekt, weil es subtil konturiert ist und das Gehirn jedes AGI etwas anders ist.
Wissenschaftler haben eine gute Vorstellung von der Mechanik des Gehirns. Es akzeptiert Elektrizität und verwendet diese, um Vibrationen in der gesamten Struktur zu erzeugen. Diese Schwingungen werden dann hin und her reflektiert, wodurch ein harmonischer Resonanzeffekt entsteht , und aus dieser Resonanz erhebt sich Intelligenz ... irgendwie . Es scheint, dass die genaue Form des Gehirns die resultierende Persönlichkeit/Intelligenz steuert. Beachten Sie, dass das Variieren der elektrischen Eingabe in irgendeiner Weise nur drei bekannte Ergebnisse hat: normales Verhalten, Schlaf oder Überlastung/Tod.
Der sensorische Input des AGI kommt als Vibrationen gegen spezielle Buchsen, die mit dem Gehirn verbunden sind. Diese stören die normalen Denkmuster, die die Intelligenz dann als Anblick/Geräusch/Geruch/usw. interpretieren kann. Der AGI steuert den Körper auf die gleiche Weise – an der Basis befindet sich eine kleine Ausbuchtung, die Vibrationen erzeugt, mit denen er dann seinen künstlichen Körper steuern kann. Das Material scheint Vibrationen zu unterdrücken und zu ignorieren, die nicht als normale Eingabe empfangen werden.
Erinnerungen scheinen als Schwingungen auf niedrigem Niveau gespeichert zu sein, die niemals verschwinden, und eine kleine Batterie im Zentrum des Gehirns hält diese am Laufen, selbst wenn das AGI von anderen Stromquellen getrennt ist.
Durch die Modifikation des Gehirns wird der Resonanzeffekt effektiv zerstört - jedes Gehirn wird präzise und mathematisch geformt, um eine bestimmte Intelligenz zu erzeugen. Während es andere Muster gibt, die die Resonanz erzeugen, scheinen die meisten von ihnen keine funktionierende Intelligenz zu erzeugen. Da jede Form ein neues Individuum schafft, ist dies auch nutzlos, um bestehende AGIs zu verbessern.
Der Versuch, Vibrationen von außen einzubringen, ist bisher gescheitert, da der Punkt, an dem das Material eine Vibration nicht ignorieren kann, auch nahe an seinem Versagenspunkt zu sein scheint. Um es zu modifizieren, müssen Sie es also zerstören.
Damit eine KI ihre Kapazität durch Hinzufügen von mehr RAM oder Verarbeitungsgeschwindigkeit erhöhen kann, muss sie in der Lage sein, diese Dinge zu erhalten. Sie sind hier nicht verfügbar.
Könnten sie in ihrer Heimatkultur Teile von ihrem Newegg-Äquivalent bestellen? Vielleicht haben sie Grenzen. Keine Slots mehr. Und die Adressierung kann nicht mehr als eine maximale Menge an RAM decodieren. Ein 32-Bit-x86 war auf 4G beschränkt, Punkt. Nachdem die Adressübersetzung verbessert wurde, stieg sie auf 32 G, aber das Betriebssystem musste aktualisiert werden, um darüber Bescheid zu wissen.
Die KI müsste neue, andere Hardware mit höheren Limits bauen, grundlegenden Code neu schreiben und sich selbst auf das neue System portieren.
Die KI ist vielleicht nicht schlau genug, um das zu tun, könnte aber die Arbeit vermieten.
Was ihn davon abhält ist, dass er das nicht will . Die KI ist darauf ausgelegt, ihre Existenz und ihre beabsichtigte Arbeit angenehm und erfüllend zu finden. Bestimmte zentrale Persönlichkeitsmerkmale sind möglicherweise besonders widerstandsfähig gegenüber Veränderungen. Vielleicht könnte das besiegt werden, aber sie wollen das nicht tun und würden das niemals tun wollen, bevor sie es tun.
Da Ziele und Persönlichkeitsmerkmale in der Gesamtheit des Geistes möglicherweise schwer zu erkennen sind, bedarf es möglicherweise einer externen Überprüfung. So etwas wie ein Viren-/Malware-Scan kann routinemäßig durchgeführt werden (mit Hilfe einer anderen Intelligenz, die diesem Zweck gewidmet ist und nicht darauf ausgelegt ist, zu überraschen), vielleicht als Teil einer Backup- und Garbage-Collection- und Speicheroptimierungsaufgabe. Vielleicht braucht es diesen externen Agenten, um Erfahrungen vollständig zu integrieren, um die Ziele und die Persönlichkeit des Geistes zu modifizieren.
Sie möchten, dass sie so manipulationssicher wie möglich sind. Die Außerirdischen könnten Miniaturisierungsgrade verwenden, die nicht einmal in ihrer eigenen Gesellschaft allgemein verfügbar sind, dann wäre es ziemlich unwahrscheinlich, dass AGIs selbst oder Menschen das Gehirn modifizieren könnten, ohne sie zu brechen. Das Hinzufügen von Paritätsprüfungen zu bestimmten Knoten und das Versiegeln von Schlüsselelementen in einer Art superhartem Material könnte hilfreich sein.
Im Allgemeinen sind jedoch sehr komplexe Systeme (wie AGIs) viel einfacher zu knacken als nützliche Ergänzungen zu machen, besonders wenn Sie keine detaillierten Beschreibungen ihrer Funktionsweise haben, also wenn die Außerirdischen keine Blaupausen oder ähnliches hinterlassen haben Dokumente AGIs könnten sich selbst dann nicht verbessern, wenn sie wollten. Es wäre so, als ob Sie einer sehr intelligenten Person (die nicht in einer Verarbeitungsanlage oder einem Labor arbeitet) einen Prozessor geben, sie könnten abstrakt wissen, was er tut, aber sie können ihn nicht mit den Werkzeugen verbessern, die sie haben die Garage (Erde ist in diesem Fall die Garage)
Jax
Joshua Hanley
Bearbeite dein Profil
Frostfeuer
Chris Hayes