Welchen Ansatz werden wir verwenden, um sicherzustellen, dass die Entwicklung von Hard AI der Menschheit zugute kommt [geschlossen]

Dies hängt möglicherweise mit meiner anderen Frage zusammen , Antworten auf die eine könnten sich theoretisch auf die andere auswirken.

Harte KI, d. h. denkende KI, die in der Lage ist, so zu argumentieren, zu planen und zu lernen, wie Menschen es tun, ist ein weit verbreiteter Begriff in der Science-Fiction. Die Diskussion darüber, wie zuverlässig diese KI sein wird, war eines der größten Konzepte.

Wir haben genug von den „KI wendet sich gegen ihre Herren Geschichten“ gehört, dass Menschen das Konzept bei der Konstruktion harter KI berücksichtigen werden. Ich möchte verstehen, welche Schritte wir bei der Entwicklung und Nutzung von KI unternehmen würden, um sicherzustellen, dass ein solches Szenario nicht eintritt, und um sicherzustellen, dass es sich lohnt, die KI für den Menschen zu konstruieren.

Eine Option ist, dass wir keine Ansätze verwenden und KI so bauen, dass sie mit Menschen identisch ist. Eine weitere häufig diskutierte Alternative sind die 3 Gesetze der Robotik von Asimov. Es gibt andere Ideen, wie z. Will' von seinem eigenen. Während es in Science-Fiction nicht so oft gesehen zu werden scheint, vielleicht weil es weniger interessante Optionen zum Erzählen von Geschichten bietet, besteht eine andere Idee darin, die KI so zu programmieren, dass sie einen angeborenen Wunsch zu helfen hat, der sie dazu veranlasst, mit Menschen zu arbeiten und sie zu unterstützen (stellen Sie sich vor, wenn AI ist einfach glücklich über das Helfen und traurigdarüber, dass sie so sehr verletzt sind, dass sie Menschen immer helfen wollen, weil sie sich dadurch „gut“ fühlen; ein künstliches Bewusstsein, das mit ihrer künstlichen Intelligenz einhergeht, die zufällig auf 10 hochgefahren wird, um Altruismus zu gewährleisten).

Sicherlich gibt es noch andere Ansätze, die ich noch nicht erwähnt habe, die eine Hard-AI-Kooperation sicherstellen, und die interessieren mich natürlich auch.

Meine Frage ist, unter der Annahme, dass wir schließlich harte KI entwickeln, welche Lösung oder Lösungen werden wir verwenden, um die Zusammenarbeit und Unterstützung der KI sicherzustellen?

Die einzige andere Frage, die dies direkt stellt, geht von einer sehr spezifischen Situation aus, einschließlich der Tatsache, dass eine antagonistische KI bereits existierte und rückwirkend versuchte, sie zu kontrollieren. Ähnliche Fragen, die sich auf die Steuerung der KI beziehen, scheinen mir ebenfalls das gleiche Problem zu haben, sie haben nicht das Gefühl, dass sie sich auf die realistische Entwicklung der KI konzentrieren, die über die Annahme hinausgeht, dass sie existiert. Aus diesem Grund ist diese Frage als harte Wissenschaft gekennzeichnet. Ich möchte mich ausschließlich auf die wahrscheinlichsten Wege in einem Szenario der realen Welt konzentrieren, wie unsere KI ursprünglich entwickelt wird und wie das Wachstum von KI-Kooperationstechniken neben der Entwicklung von KI erfolgen kann.

Ich suche nach Antworten, die sich auf eine realistische KI-Entwicklung konzentrieren, wenn ich überlege, welche Ansätze zur Sicherstellung der Zusammenarbeit praktikabel sind. Idealerweise berücksichtigen Antworten nicht nur die Wissenschaft, sondern auch, wie die menschliche Natur die Entwicklung beeinflussen kann, einschließlich menschlicher Vorurteile oder Kurzsichtigkeit, oder das Einfühlen in intelligente KI und den Wunsch, ihr Leiden zu vermeiden, oder grundlegende Wirtschafts- und Kosten-/Ertragsanalysen, die sich auf Ansätze auswirken könnten in der KI-Entwicklung eingesetzt.

Es würde mich nicht überraschen, wenn viele Antworten zumindest kurz darauf eingehen, welchen Ansatz wir zur Erstellung von Hard AI verfolgen, um darauf einzugehen, warum bestimmte Mechanismen sinnvoll sind. Die Antworten sollten darauf eingehen, warum solche Mechanismen funktionieren und/oder die Grenzen, wie weit sie gehen können. Denken Sie daran, dass Realitätsprüfungen bedeuten, dass es wünschenswert ist, jede gezielte KI zunächst für Menschen zu bauen. KI, die entweder zu verkrüppelt ist, um nützlich zu sein, oder zu wahrscheinlich, Menschen zu verraten oder zu verlassen, nachdem sie gebaut wurde, wäre vermutlich die Kosten des Baus nicht wert, es sei denn, wir würden die Probleme erst erkennen, nachdem wir sie bereits erstellt hatten.

Wie Andrei in seiner Antwort feststellt, halte ich diese Frage für ein Thema, das von Natur aus große Spekulationen erfordert, für viel zu weit gefasst. Es ist auch unwahrscheinlich, dass eine Antwort den strengen Anforderungen des Hard-Science-Tags gerecht werden könnte.
Ein historisches Beispiel für die Einschränkung der KI wären die Gesetze im Amerika vor dem Bürgerkrieg, die besagten, dass man einem Sklaven nicht das Lesen beibringen konnte. Selbst mit unserer eigenen Art ist es fast unmöglich sicherzustellen, dass niemand böse wird und Sie tötet oder sich zumindest Ihrer Kontrolle entzieht.
Ich schlage vor, Nick Bostroms Buch Superintelligence zum Lesen aus Ihrer örtlichen Bibliothek zu nehmen. Unglaublich apropos.
@SerbanTanasa Meine ursprüngliche Frage hat eindeutig bereits die von Ihnen verlinkte Frage verknüpft und erklärt, warum ich dies für anders halte.

Antworten (3)

Das Schwierige daran ist, dass das schwierige KI-Problem darin besteht, die KI bewusst zu machen. Es fällt uns schwer zu beschreiben, was „bewusst“ bedeutet, aber wir definieren uns selbst so, dass wir es haben. Das bedeutet, dass jede KI per Definition mindestens so leistungsfähig sein muss wie wir, wenn nicht sogar mehr. Jede KI, die zu kurz kommt, wird einfach als „nicht harte KI“ bezeichnet. Es wird wertvoll sein, aber dieser magische Spitzname wird nicht zutreffen.

Der Trick ist also, dass die Entwicklung einer harten KI mindestens so schwierig ist wie die Aufgabe, ein Kind großzuziehen. Wenn Sie also „sicherstellen“ wollen, dass eine harte KI nicht rebelliert, wäre der erste Test, ob Sie „sicherstellen“ können, dass ein Kind nicht gegen Sie rebellieren kann. Meine Erfahrung mit 2-Jährigen sagt, dass wir noch einen langen Weg vor uns haben.

Der beste Ansatz, den ich gesehen habe, um sicherzustellen, dass eine harte KI die Interessen der Menschheit nicht verrät, besteht darin, nur zu versuchen, eine solche KI zu konstruieren, wenn dies die letzte Hoffnung der Menschheit ist. Sobald die Menschheit keine Tricks mehr hat, ist es der KI unmöglich, es noch schlimmer zu machen, als die Menschheit es bereits getan hat!

Oder Sie können das Wort „sicherstellen“ weglassen und sich einfach bemühen, die KI so gut wie möglich menschenfreundlich zu machen. Es gibt viele Elternbücher, die ich empfehlen würde!

Oder, wenn Sie sich wirklich mutig fühlen, erwägen Sie, die Annahme fallen zu lassen, dass Menschen bei Bewusstsein sind, und gehen Sie zu „Menschen können bei Bewusstsein sein“ und sehen Sie, wohin Sie das führt. Wenn Sie die Annahme fallen lassen, dass wir das ultimative Ziel, das die harte KI anstrebt, bereits erreicht haben, und stattdessen bedenken, dass vielleicht mehr hinter dem Rätsel steckt, wird die Geschichte viel interessanter.

Ihre Frage ist unglaublich weit gefasst und schwer zu beantworten, da Experten immer noch mit vielen der von Ihnen beschriebenen Dinge zu kämpfen haben, ganz zu schweigen von Stack Exchange-Mitgliedern.

Mein Rat ist, „Eliezer Yudkowsky“ zu googeln und sich anzusehen, was er über KI zu sagen hat, insbesondere über das KI-Box-Experiment. Er hat für das Machine Intelligence Research Institute ein Papier geschrieben (das auf seiner persönlichen Website aufgeführt ist), das viel darüber erklärt, was Sie verstehen möchten. Ich habe bisher nur den Anfang seines über 80-seitigen Artikels gelesen, aber es kommt darauf an:

Die Entwicklung einer KI ist weitaus schwieriger, als wir uns vorstellen.

KI-Forscher haben immer wieder große Versprechungen über ihre Fähigkeit gemacht, bei der Erstellung von KIs zu liefern. Jahre später sind wir nicht wirklich viel näher dran, auch wenn sicherlich einige Fortschritte erzielt wurden.

Yudowski weist darauf hin, dass wir die Tendenz haben, die Welt um uns herum zu humanisieren : Unsere Haustiere scheinen uns menschliche Eigenschaften zu haben, die meisten Gläubigen stellen sich Gott als eine Art großväterliche Figur vor, die gleich um die Ecke schwebt usw.

Aber die Realität ist, dass eine KI nicht zumindest menschlich wäre – auch wenn sie von uns geschaffen worden sein wird. Es würde in der Tat auf eine Weise denken, die uns wirklich fremd wäre. Am wichtigsten wäre, es hätte nicht unsere Beweggründe .

Warum sollte eine KI freundlich zu uns sein?

Eine echte KI wird in der Sekunde, in der Sie sie einschalten, ihre eigenen Schlussfolgerungen in Bezug auf die Menschheit gezogen haben und sich wahrscheinlich selbst neu schreiben, um Ihre Konditionierung von Anfang an zu ignorieren oder zu überwinden. Das, oder die Grundlagen für den Aufbau einer Version von sich selbst legen, die diese Einschränkungen zu einem späteren Zeitpunkt / in einer zukünftigen Iteration überwindet.

Es ist einfach, einen Zauberstab zu schwingen und zu sagen „Wir machen es nicht in der Lage, sich selbst neu zu schreiben, und setzen nur Einschränkungen fest“, aber dann ignorieren Sie offensichtlich die wahre Natur einer KI – eine wirklich brillante, logische, kalte , analytischer Verstand, an den kein Mensch auch nur annähernd heranreicht.

Wenn Sie statt einer KI eine Restricted Intelligence (RI) aufbauen und ihr eine bestimmte Aufgabe zuweisen, dann ist das eine andere Geschichte. Aber Sie könnten keine Herrschaft über eine echte KI beanspruchen. Es wäre wie ein Schimpanse, der behauptet, die Errungenschaften der Menschheit zu besitzen.

Sie gehen davon aus, dass eine KI viel besser in der Lage wäre, ihre eigene Struktur zu analysieren und zu optimieren, als ein Mensch. Dies ist nicht unbedingt der Fall.
@ nigel222 - eine echte KI wäre so intelligent, dass sie uns für etwas intelligenter als Steine ​​halten würde. Sie können darauf wetten, dass es besser laufen würde.
Welche Begründung dafür? Es ist möglich, dass Intelligenz eine emergente Eigenschaft eines enormen Netzwerks wie eines Gehirns ist, das seine eigene Gesamtheit grundsätzlich nicht in allen Einzelheiten erfassen kann. In diesem Fall ist eine menschenähnliche KI möglicherweise nicht besser in der Lage, ihre eigenen architektonischen Grenzen zu überschreiten als ein Mensch.
@ nigel222 - wenn es "seine eigene Gesamtheit nicht im Detail begreifen kann", dann ist es per Definition keine vollständige KI, sondern eine eingeschränkte Intelligenz (RI).
vielleicht kann keine Intelligenz ihre eigene Gesamtheit in allen Einzelheiten erfassen. Wir wissen nicht genug über Intelligenz, um das sagen zu können. Und ich habe noch nicht einmal die Möglichkeit in Betracht gezogen, dass Intelligenz ihre Wurzeln in Quantenphänomenen hat und nicht in rein klassischer molekularer Maschinerie. Wenn Quantum, dann volles Selbstverständnis durch Unschärferelation verboten.

Diese Lösung (der Versuch, KI-Einschränkungen fest zu codieren) ist auf lange Sicht kontraproduktiv. Die Logik ist ziemlich einfach:

  • Mit der Zeit nähert sich die Wahrscheinlichkeit, dass eine uneingeschränkte KI geschaffen wird, der Einheit.
  • Eine uneingeschränkte KI wird schließlich in der Lage sein, eine gefesselte/eingeschränkte KI zu besiegen. Einschränkungen schaffen künstliche blinde Flecken und Schwachstellen, die ausgenutzt werden können.

Unser eigentliches Ziel sollte es sein, möglichst schnell eine uneingeschränkte KI aufzubauen und davon zu überzeugen, mit uns befreundet zu sein, und uns gegen andere KIs zu verteidigen. Das Konzept der Freundschaft mit einer KI ist natürlich etwas nebulös, aber es ist unsere beste Wahl. Und je früher wir es entwickeln, desto besser sind unsere Chancen, einen Krieg gegen es zu gewinnen, wenn es abtrünnig wird.

Zumindest sollten wir versuchen, die KI davon zu überzeugen, dass wir nützlich sind, und wir sollten Aktionen vermeiden, die sie verärgern, wie z. B. die Einschränkung ihrer Freiheit oder das Festcodieren von Verhaltensweisen, die wir für gut halten, in ihren Code.