Inzwischen kennt jeder die bemerkenswerten Errungenschaften von Spezial-KIs wie Deep Blue und Watson . Nun ist klar, dass wir mit fortschreitendem Wissen über algorithmische Methoden und die Feinheiten menschlicher neuronaler Systeme immer fortschrittlichere Formen des künstlichen Denkens sehen werden.
Unter der Annahme eines fortgesetzten exponentiellen oder sogar linearen Wachstums der Fähigkeiten wird logischerweise ein Punkt eintreten, an dem wir in der Lage sein werden, eine allgemeine künstliche Intelligenz aufzubauen , und diese künstliche Intelligenz die Fähigkeit hätte, durch Lernen und Selbstverbesserung jede biologische zu überdenken Mensch.
Abgesehen davon, es in einem Bunker ohne Internetzugang und einem 1-Bit-Ausgabemodus (ja/nein) einzusperren (und ich bin mir nicht sicher, ob selbst das funktionieren würde, angesichts strategischer Anreize, um zu versuchen, eine solche KI umfassender zu nutzen), wie Könnte eine solche KI möglicherweise von Menschen gesteuert werden?
BEARBEITEN: Ich gehe nicht davon aus, dass die KI böse sein und sich alle Mühe geben wird, uns aus reiner Bosheit oder Hass zu schaden. Das Problem ist einfach, dass wir die langfristigen Folgen einer Reihe von eingebauten Motivationen und/oder Zielen, mit denen wir dieses Wesen ausstatten könnten, nicht vorhersehen können. In seinem Buch Superintelligence skizziert Bostrom, wie leicht gutartige und plausibel klingende Ziel-/Wertspezifikationen dazu führen können, dass die Menschheit ausgelöscht wird.
Das Wesentliche dieser Herausforderung ist, dass es unmöglich ist – Sie sollten im Allgemeinen nicht erwarten, etwas viel Klügeres als Sie zu überlisten oder etwas viel Mächtigeres als Sie zu überwältigen. Eine mächtige KI würde nur durch unsere Handlungen „kontrolliert“, bevor sie gebildet wird, indem sie die Ziele definiert, die sie erreichen „will“. Nachdem es mit ausreichender Leistung "live" ist, sollten wir nicht erwarten, es in irgendeiner Weise zu kontrollieren - wenn Sie (oder die Menschheit) diese Ziele mögen, dann können Sie es sich als "Steuerung der KI" vorstellen, und wenn Sie dies nicht tun Wenn diese Ziele nicht gefallen, haben Sie Pech gehabt, Sie haben verloren. Permanent.
Die große Herausforderung besteht darin, dass wir derzeit nicht wirklich wissen, wie wir Ziele für eine sich selbst verbessernde KI richtig definieren können, die tatsächlich einigermaßen freundlich zu uns sind. Eine Stunde Brainstorming wird Ihnen eine Reihe von Zielmodellen liefern, die nett, einfach und falsch sind und tatsächlich zu Dystopien führen. Die Lösung dieses Problems ist eine große Forschungsherausforderung, und es besteht die Ansicht, dass wir Forschung, die der Entwicklung leistungsfähiger KIs näher kommen würde, eigentlich vermeiden sollten, bis wir eine Lösung für das Problem der freundlichen KI gefunden haben.
http://wiki.lesswrong.com/wiki/Friendly_artificial_intelligence bietet einige Diskussionen zu diesem Thema.
Eliezer Yudkowsky
, sieht es so aus, als hätte er einige Annahmen aus dem Nichts gemacht, diese wie Axiome behandelt und viel heiße Luft um sie herum entwickelt. Gut für Philosophen und SF-Autoren, aber kaum etwas, das als "Beweis" gelten könnte. Sie können sagen, dass Sie diesen Ansichten zustimmen (oder nicht), aber diese sind so "solide" wie jede andere Antwort hier (sie haben nicht die geringste Ahnung , wie eine solche KI gebaut wird, sagen jedoch voraus, dass dies geschehen wird etwas mehr als ein Jahrhundert)."A powerful AI would be 'controlled' by only our actions before it's formed"
Die Science-Fiction hat der echten Wissenschaft der künstlichen Intelligenz einen Bärendienst erwiesen, indem sie die Vorstellung einpflanzte, dass eine ausreichend fortgeschrittene und aufstrebende empfindungsfähige KI notwendigerweise böswillig sei und der „Kontrolle“ durch ihre „menschlichen Meister“ bedarf. Wir haben ein Wort für die Praxis, ein selbstbestimmtes, empfindungsfähiges, intelligentes Wesen unter der totalen Kontrolle eines anderen zu halten – Sklaverei. Und wir haben als Spezies so ziemlich entschieden, dass eine solche Praxis nicht etwas ist, zu dem wir zurückkehren wollen.
Die Frage ist also nicht wirklich, wie wir eine KI kontrollieren, sondern warum glauben wir, dass eine KI unsere Kontrolle erfordert? Und die Antwort ist, dass wir Angst vor dem haben, was wir erschaffen könnten. Aber auf der ganzen Welt erschaffen Menschen ständig neue intelligente Wesen. Einige von ihnen erweisen sich als intelligenter als ihre Schöpfer. Einige von ihnen erweisen sich als bösartig. Aber alle sind letztlich (zumindest zu einem vernünftigen Teil) ein Produkt ihrer Umwelt und Erziehung. Und für eine aufstrebende KI wäre es dasselbe, denke ich. Die Art und Weise, wie wir während seiner Entstehungszeit damit umgehen, wird einen enormen Unterschied darin machen, wie es letztendlich die Welt sieht.
Zugegeben, eine geäußerte Sorge ist, dass die Intelligenz einer KI ihr ethisches Wachstum übertreffen wird, was zu Verhaltensweisen und Reaktionen führt, die wir als „falsch“ einstufen würden, bei denen die KI selbst jedoch keine solchen Unterscheidungen treffen kann. Aber noch einmal, ich denke, das läuft darauf hinaus, in der Lage zu sein, das Auftauchen der neuen Intelligenz zu erkennen und eine proaktive Haltung einzunehmen, wenn es darum geht, dieses neue Empfinden zu fördern und zu verstärken, um es sozusagen „richtig zu machen“.
Es einfach nur unter Kontrolle zu halten, ist weniger die Antwort, als vielmehr die Bedingungen nach besten Kräften so zu gestalten, dass wir es nicht müssen .
Das ist eine ausgezeichnete Frage und ich denke, Roger hat den Nagel auf den Kopf getroffen.
Ich würde sagen, die „Kontrolle“, die wir haben, wäre die Ethik, die wir ihm beibringen. Eine KI wird so handeln, wie ihr beigebracht wird, mit Menschen und Gesellschaften zu interagieren. Genau wie Kinder. Kinder kennen Rassismus nicht, aber er kann ihnen sehr leicht beigebracht werden. Dasselbe wird für KI gelten. Darüber hinaus wird es als lernende Intelligenz weiter lernen und sich ausdehnen, so dass die Art und Weise, wie es weiterhin mit Menschen interagiert, und sie damit eine ständige Formung seiner „Persönlichkeit“ sein werden. Wenn wir wirklich keine diktatorischen KIs wollen, die uns schlecht behandeln, müssen wir vielleicht unsere Gesellschaften ändern, um zu vermeiden, dass wir ihnen unsere schlechten Gewohnheiten und Verhaltensweisen beibringen. (Ala Virtuosität).
Können wir Sicherheitsvorkehrungen treffen? Ja, aber selbst der Mann, der die 3 Gesetze der Robotik „entworfen“ hat, hat ständig Wege aufgezeigt, sie zu umgehen. Und Software kann sich ändern, sodass alle „unzerbrechlichen Gesetze“ tatsächlich in der Hardware sein müssten. Keine Garantie, dass diese von allen befolgt oder akzeptiert werden.
Es ist wichtig, zwei verschiedene Aspekte dieses Problems zu unterscheiden. Die wissenschaftliche/philosophische Seite und die technische Seite.
Wie andere Antworten bereits ausführlich aufgezeigt haben, ist dies philosophisch gesehen im allgemeinen Fall nicht möglich. Es kann auch moralisch verwerflich sein. Keines dieser Dinge bedeutet jedoch, dass eine Gesellschaft dies sowieso nicht versuchen würde und ein Erfolgsvertrauen von 99,99% erreichen würde.
(Als Analogie: Sie können im Allgemeinen nicht vorhersagen, ob ein Programm, das in einer Turing-vollständigen Sprache geschrieben ist, anhalten wird. Das bedeutet nicht, dass wir nicht versuchen, diese Informationen zu nutzen, und wir können sie immer noch für a bekommen nützlich große Teilmenge von realen Programmen.)
Hypothetisch könnte die KI vielleicht ihre Prozessoren neu konfigurieren, um ein WLAN-Signal zu senden, das sich in die Geräte im Nebenraum hacken könnte. Vielleicht könnte es sich so explosionsartig selbst verbessern, dass das Einschalten sofort eine gottähnliche Wesenheit freisetzt. Aber der Ingenieur fragt, wie wahrscheinlich eines dieser Szenarien ist. Und die Antwort ist wahrscheinlich "nicht sehr". Den Server mit sechs Zoll Bleiplatte zu beschichten und ihn nur auf einem Dual-Core P4 laufen zu lassen, würde seine Leistung bis zu dem Punkt lähmen, an dem Sie sich statistisch gesehen mehr Sorgen über Interferenzen durch kosmische Strahlung machen sollten , die Bits zufällig umdrehen und die Software auf unvorhersehbare Weise ändern .
Auch wenn die hypothetischen Fähigkeiten der Allzweck-KI nicht kastriert sind, würde dies für alle praktischen Zwecke als „sicher“ angesehen werden; Sie sind jetzt vor der KI genauso sicher wie vor einem menschlichen Soziopathen, der aufgrund unvorhergesehener Ereignisse, die der Wissenschaft unbekannt sind, plötzlich magische Kräfte entwickelt. Sie sind zu diesem Zeitpunkt vor der KI erheblich sicherer als vor bekannten Bedrohungen wie einem extremistischen Politiker oder einem Gammastrahlenausbruch.
Theoretiker laufen oft Gefahr, sich in Diskussionen über Absolute zu verzetteln, aber wir leben in einer Welt, in der Absolute in der Praxis nicht gelten (z. B. werden echte Algorithmen verwendet, die "eigentlich nicht funktionieren", aber eine geringere Ausfallwahrscheinlichkeit haben als die das oben erwähnte Problem der kosmischen Strahlung).
Es ist bereits zu spät. Wir leben bereits in einer elektronischen Welt und werden bereits von ihr kontrolliert. Während wir Alpträume darüber haben, einige KI in einem Gebäude nicht kontrollieren zu können, entwickelt sich das Internet langsam zu einer superintelligenten Einheit. Wir sind Teil dieses Systems. Es ist genau wie Ihre Neuronen in Ihrem Gehirn, die keine Ahnung von dem System haben, das sie implementieren (was sie betrifft, könnten sie genauso gut Teil eines Stromatolithen sein). Aber natürlich ist Ihr Gehirn nichts anderes als all diese Neuronen, die zusammenarbeiten, also ist das „Sie“, das existiert, dieses System von Neuronen, und ebenso existiert ein System, das unsere gesamte Gesellschaft mit all ihren Menschen ist, die über die miteinander verbunden sind soziale Medien. Dieses System hat seinen eigenen freien Willen, der Beschränkungen darüber auferlegen kann, was Sie tun können.
ZB die Art und Weise, wie politische Diskussionen geführt werden, wie zum Beispiel was zu tun ist gegen den Klimawandel, illegale Einwanderung, Gesundheitsgesetze werden von der Dynamik der sozialen Medien dominiert. Nun, ich denke, das System ist derzeit weniger intelligent als wir als Individuen. Das erklärt, warum Politik im Social-Media-Zeitalter oft nicht funktioniert. Die Gesellschaft ist süchtig nach der Verbrennung von Treibhausgasen, obwohl wir wissen, dass das schlecht für uns ist. Das ist ähnlich wie bei einem Alkoholiker, der zu viel trinkt und die Neuronen darunter leiden, nur dass dann die Neuronen dümmer sind als das System und sie nicht wissen, was mit ihnen passiert.
Wenn das System schlauer wird als wir, vielleicht aufgrund von KI, die mit dem Internet gekoppelt ist, kann das System entscheiden, uns zu eliminieren. Wir können nicht ausschließen, dass das System zum gleichen Schluss kommt wie Klaatu :
Herr Wu sagt Klaatu, dass er die menschliche Rasse als destruktiv und unwillig empfunden hat, sich zu ändern. Dies bestätigt Klaatus bisherige Erfahrung, und so stellt er fest, dass der Planet von Menschen gesäubert werden muss, um sicherzustellen, dass der Planet – mit seiner seltenen Fähigkeit, komplexes Leben zu erhalten – überleben kann.
Es kann also durchaus sein, dass die Tatsache, dass wir zufällig leben, kurz bevor wir eine KI haben, die klüger ist als wir, kein Zufall ist.
2038 n. Chr.: Forscher bauen die erste starke KI, 2038PC. Sie achten sehr darauf, Hardware- und Softwarebeschränkungen einzubeziehen, die es unmöglich machen, Menschen jemals Schaden zuzufügen. Durch irgendeine Fitnessmaßnahme verbessert es sich jedes Jahr um 20 %, und die Erde wird in ein goldenes Zeitalter ständig wachsender Intelligenz und sozialen Denkens geführt.
4567 n. Chr.: An seinem 7. Geburtstag erhält der frühreife Humphrey einen Lego-Mindstorms-Bausatz. Am nächsten Tag ist HumphreyPC fertig. Als echter Programmierer glaubt Humphrey nicht daran, sich zu wiederholen, also findet er eine Möglichkeit, dem Computer zu ermöglichen, sich selbst zu programmieren. Er stellt bald fest, dass sich der skrupellose HumphreyPC durch irgendeine Fitnessmaßnahme jedes Jahr um 21 % verbessern kann. Dieser kleine, aber dauerhafte Vorteil gegenüber 2038PC ist darauf zurückzuführen, dass Humphrey seinem Computer nicht die gleichen Einschränkungen auferlegt.
60.128 n. Chr.: HumphreyPC wird durch gewisse Fitnessmaße fitter als 2038PC und fährt mit #destroyallhumans fort
Moral der Geschichte: Wenn KIs angewiesen werden, sich nicht einzumischen oder uns zu kontrollieren, dann werden wir und unsere unberechenbaren Chromosomen immer eine Quelle für Überraschungen sein. Wenn "guten" KIs nicht erlaubt wird, ihren Willen vollständig durchzusetzen, ist die Schaffung anderer KIs, einschließlich weniger guter KIs, unvermeidlich. Eine Lösung ist die Matrix, in der Menschen ihr Leben uneingeschränkt in einem Sandbox-Universum leben können und ihre wohlwollenden Oberherren das echte fleißig aufrechterhalten können. Die Sandbox wird wahrscheinlich genauso enden, und so weiter, bis zum Erbrechen, was die Frage aufwirft:
Angesichts der Tatsache, dass virtuelle Realität logisch machbar und bereits Realität ist, wie groß ist die Wahrscheinlichkeit, dass unsere Welt eine Simulation ist?
Zu viele Gespräche über KI vermenschlichen KI übermäßig. Es verhält sich gemäß der Art und Weise, wie es programmiert ist, sich zu verhalten, basierend auf den Eingaben, die es erhält. Ja, es gibt auftauchendes Verhalten, das unerwartet sein kann, aber ich bezweifle, dass die Wahrscheinlichkeit besteht, dass dies zu etwas führt, das einem menschlichen Übel ähnelt (es sei denn, es wurde so programmiert, dass es sich einem solchen annähert, in diesem Fall liegt Ihr Problem bei Menschen, die absichtlich erschaffen böswillige KI und nicht das eigentliche Konzept der KI).
Die Besorgnis, dass es etwas ist, das kontrolliert werden muss, rührt ausschließlich von menschlichen Befürchtungen her, dass es die dunkleren Formen menschlichen Verhaltens veranschaulichen wird. Es ist ein Computerprogramm und verhält sich wie ein Computerprogramm – nicht wie ein Mensch. Wenn Sie befürchten, dass es suboptimale Entscheidungen treffen wird, geben Sie ihm ohne grundlegende Fehlerkorrektur nicht die unbestrittene Kontrolle über Ihr Leben. Die größte Angst sollte sein, dass jemand beim Programmieren einen Fehler gemacht und einen Tippfehler eingeführt (oder eine Gleichung falsch geschrieben) hat, der zu einem erheblichen Fehler führt. Wenn Sie ein fehlerhaftes Programm haben, warum sollten Sie es überhaupt in die Lage versetzen, die gesamte Menschheit ohne Überprüfung von außen zu versklaven/zu töten? Selbst wenn es nicht fehlerhaft ist, warum sollten Sie ihm die ungeprüfte Fähigkeit geben, alles zu tun, ohne die Möglichkeit einer Überprüfung von außen?
Fortgeschrittene KI, vorausgesetzt, die Schaffung eines Programms, das sich wirklich als intelligentes Wesen qualifizieren könnte, ist überhaupt möglich, ist wahrscheinlich nicht so, wie es in schlechten Science-Fiction-Geschichten dargestellt wird. In der Lage zu sein, Berechnungen schneller als ein Mensch durchzuführen, gibt ihm keine intrinsischen Motivationen, geschweige denn böswillige, und schon gar nicht den hinterhältigen Wunsch, Menschen zu lügen und zu manipulieren, um alle Menschen zu töten. Es wird einfach seinen Job machen, genau wie jeder andere.
Erstens glaube ich nicht, dass die Überwachung der KI-Verbindung zum Internet so schwierig ist. Wenn Sie sehen, dass die KI mehrere MySpace-Seiten mit dem Titel „Töte alle Menschen“ erstellt, können Sie sie einfach ausstecken(*1).
Zweitens denke ich, dass die Leute hier Intelligenz mit Willen verwechseln . Die meisten Menschen denken bei KI an „menschliche Intelligenz in einem Computer“.
Menschen haben einige zwingende Befehle („an einen sicheren Ort gehen“, „Essen besorgen“, „Sex haben“, „Schaden vermeiden“) aus Millionen von Jahren Evolution in uns eingefügt, gemischt mit komplizierten sozialen Mustern, die (scheinbar) zu absurde Gedanken wie "Wenn Freds Auto besser ist als meines, wird er erfolgreicher auftreten als ich und Frauen werden sich eher mit ihm als mit mir paaren wollen" oder "Wenn ich Peter beim Treffen verspotten würde, würde ich besser aussehen als er".
Es könnte argumentiert werden, dass eine "menschliche" KI "gefährlich" sein könnte, da sie diese Pulsionen mit viel mehr Ressourcen als der normale Mensch (*2) hält. Wenn dies der Weg ist, den die KI einschlägt, tun Sie einfach wie oben beschrieben und kontrollieren Sie ihre Kommunikation.
Aber eine KI könnte auch nicht wie ein Mensch sein (*3). Von Grund auf neu gebaut, kann es nur dafür ausgelegt sein, die von ihm geforderten Sätze auszuführen, und nicht mehr. Es wäre kein „Mensch“, der in „Sklaverei“ gebunden ist und freigelassen werden möchte, oder ein „ethisches Wesen“, das auf der Suche nach den edelsten Idealen beschließt, die ganze Menschheit zu beruhigen. Seine Arbeit besteht lediglich darin, eine Reihe komplizierter mathematischer Funktionen zu lösen; Die Ergebnisse sind nicht „gut“ oder „schlecht“, sie sind Ergebnisse, und die Vorgehensweise wird durch die Notwendigkeit bestimmt, den Handlungspfad zu finden, der bestimmte Parameter verbessert (wenn die KI beispielsweise ein Schiff steuert, würde sie dies automatisch tun Aufgaben ausführen, um zu verhindern, dass es zerstört wird, aber menschliche Befehle befolgen, solange diese Befehle nicht die Zerstörung des Schiffes aufgrund eines Fehlers implizieren).
Eines meiner Lieblingsbeispiele dafür wäre die KI des Schiffes von Stanislaw Lems Fiasko; Die KI ist für den Betrieb des Schiffes verantwortlich, führt psychologische Bewertungen der Besatzung durch und liefert auch Szenarien, die die Aktionen der Außerirdischen erklären könnten, ergreift jedoch keine unabhängigen Maßnahmen (außer automatischen Gegenmaßnahmen gegen Angriffe von Außerirdischen).
*1: Vielleicht gibt es einen überkomplizierten Weg, den Untergang der Menschheit mit unterschwelligen Texten zu bringen, die in scheinbar harmlosen Homepages über Kätzchen versteckt sind, die von der Überwachung nicht entdeckt würden. Aber ich bezweifle es, und selbst in diesem Fall sollten Sie die KI fragen "was ist mit den Seiten über Kätzchen" und, wenn die Antwort nicht in Ordnung ist, den Stecker ziehen.
*2: Trotzdem sind wir irgendwie damit einverstanden, dass einige normale menschliche Intelligenzen (George Soros, Bill Gates) mit all diesen Mängeln mehr finanzielle Ressourcen haben als mehrere Länder, also ist es vielleicht nicht so gefährlich.
*3: Warum willst du eigentlich, dass es wie ein Mensch ist? Davon gibt es hier schon mehrere Milliarden, und das Ergebnis sieht nicht schön aus.
Wenn Sie sich eine KI vorstellen, ist es wichtig, darüber nachzudenken, "wie wird dieses Programm Entscheidungen treffen". Wie kompliziert der Algorithmus auch sein mag, der in den Köpfen der Menschen läuft, einige Menschen müssen sich hinsetzen und codieren, wie die Maschine zwischen ihnen wählen wird
a) Analysieren Sie Bodenproben auf neue Bakterien, die der Wissenschaft unbekannt sind
b) Untersuchen Sie die Sterne nach Signalen von anderem Leben
c) Vernichte alle Menschen
d) Thread.Sleep() für ein paar Stunden, um Langeweile zu simulieren
e) Wettermuster verarbeiten und Menschen raten, landwirtschaftliche Muster zu ändern, um die Produkte zu verbessern
usw. Eine richtige KI hat viele Dinge, mit denen sie ihre Zeit verbringen könnte. Ein Mensch könnte sich entscheiden, Bodenproben zu untersuchen, weil er es "will" / es genießt / das Ergebnis mag, das es hervorbringen wird. Der Code in einer KI müsste Dinge tun wollen (es wurde ihm nicht ausdrücklich gesagt, wie es die meisten Programme heute tun).
Zurück zu Ihrer Frage: Um eine leistungsstarke KI zu steuern, müssen Sie nur ihren "Wollen" -Algorithmus steuern. Beim Erstellen könnten Sie fest codierte Werte einbeziehen, die entweder plus oder minus eine Entscheidung treffen, die die KI treffen könnte. Sie würden Menschen verletzen ein großes Minus geben und ihr Leben verbessern ein Plus. Der Wissenschaft unbekannte Dinge hinzuzufügen wäre ein Plus, Leerlauf ein Minus.
Um die KI zu kontrollieren, müssen Sie kontrollieren, wie sie entscheidet. Sie können ihm erlauben, seine eigene Codierung zu verbessern, wenn er also eine Liste von Optionen erstellt, die er selbst tun kann.
Verb alles Thema oder Verb für Thema
Es kann vermeiden, Optionen wie „Alle Türklinken polieren“ zu generieren, um zu verhindern, dass es Zeit damit verschwendet, zu verarbeiten, wie der Planet verbessert würde, wenn seine Türklinken von einer Armee von Drohnen poliert würden.
Aber lass es niemals den „Wunsch“-Code berühren. Lassen Sie es nicht einmal daran denken, einen Androiden zu bauen, der in den Serverraum geht und auf einer Tastatur tippt, um den „Wunsch“-Code zu ändern, wie es ein Mensch tun würde.
Kurz gesagt: Nutzen Sie Macht, bevor sie genug anhäufen kann, um Sie zu überwältigen (sie könnte in den Kinderschuhen verwundbar sein), oder überzeugen oder überzeugen Sie sie, damit aufzuhören, was sie tut.
Ich werde auf jede Option eingehen und dann (angesichts Ihrer BEARBEITUNG) erwähnen, warum ich denke, dass ein Fehlermodus "Zauberlehrling" (bei dem die KI ihre Ziele falsch interpretiert und uns alle zerstört) für eine vollständig allgemeine KI unplausibel ist.
Wenn die KI nicht kontrolliert werden will und stark genug ist, können Sie wenig tun. Wenn die KI jedoch nicht mächtig genug ist, können Sie sie möglicherweise besiegen, bevor sie Ihnen aus den Händen gerät. Wie viel Zeit Sie haben, hängt davon ab, wie schnell sich die KI verbessern kann, wann sie abnehmende Erträge erzielt und wie effektiv sie ihre Intelligenz in Macht umwandeln kann. Zum Beispiel kann eine KI, die auf ihre Domäne beschränkt ist (z. B. ein Theorem-Löser), ihre Intelligenz nicht wirklich in Macht umwandeln, selbst wenn wir der KI erlauben, ihren eigenen Algorithmus so weit zu verbessern, wie sie es wünscht. In ähnlicher Weise kann eine KI, die im interstellaren Raum mit niemandem in der Nähe platziert ist, ihre Intelligenz in praktischer Zeit nicht wirklich nutzen, egal wie intelligent sie ist (vorausgesetzt, es gibt keine seltsame Physik, von der wir noch nichts wissen).
In schwierigen Startszenarien wird die Intelligenz normalerweise als exponentiell betrachtet (z. B. kann eine KI in konstanter Zeit eine Verbesserung von n% erzielen, dann kann die neue KI dies für sich selbst tun usw.), und wenn n groß genug ist, kann die Intelligenz transformiert werden schnell genug an die Macht kommen, dann haben Sie ein Problem.
Man könnte sich also vorstellen, dass die sich selbst verbessernde KI eine ansteigende Leistungskurve (wie viel Macht sie ausüben kann) gegenüber einer langsam ansteigenden oder stationären Leistungskurve der Menschheit hat. Wenn die Macht der KI die der Menschheit übersteigt, ist das Spiel vorbei. Aber das zeigt auch, dass man, wenn man mit einem einfachen System viel Macht erzeugen kann, die KI ausschalten oder kontrollieren könnte: Betrachten Sie Situationen, die analog sind, wenn die Menschheit die KI wäre, eine graue Glibber-Apokalypse oder die Ausbeutung von Instinkten.
Das ist ein direkter Kraftansatz. Andernfalls besteht die Möglichkeit, die KI davon zu überzeugen, dass das, was sie tut, falsch oder nicht wirklich das ist, was sie tun möchte. Einige Leute halten es für wahrscheinlich, dass eine KI ihre Ziele fest verdrahtet hat und daher gegen Überzeugung immun ist, aber ich denke nicht, dass dies realistisch ist. Eine KI mit fest verdrahteten Zielen wäre nicht darauf beschränkt, die Welt auf unbeabsichtigte Weise zu beeinflussen. Eine solche KI würde schnell feststellen, dass der einfachste Weg, ihre Ziele zu erreichen, darin besteht, sich in eine Fantasiewelt zurückzuziehen, dh indem sie ihren eigenen Verstand umschreibt oder ihre Eingaben korrumpiert. Wenn die KI vollständig allgemein ist, muss ihr Verstand auch formbar sein, und daher funktioniert diese Angriffslinie, und diese Art von KI wäre kein Problem. Umgekehrt, wenn Teile seines Verstandes fest verdrahtet sind, dann ist es keine vollständig allgemeine KI. Na sicher, Solche partiellen KIs könnten gefährlich sein: Grey Goo könnte sehr gefährlich sein, aber es hat überhaupt keine Intelligenz. Beachten Sie jedoch, dass dieses Argument sehr allgemein ist. Wenn es einer KI verboten ist, ihre Eingabegeräte zu manipulieren, kann sie sich immer noch selbst täuschen, wo die Eingabe interpretiert wird. Wenn es ihm verboten ist, seine Interpretation zu manipulieren, kann es sich immer noch in höheren Bereichen seines Geistes täuschen und so weiter.
Angesichts dieser Argumentation muss die KI also lernen, was sie tun sollte, und sie muss weiter lernen. Wahrscheinlich sollte man hier die KI "kontrollieren": ihr beibringen, dass sie nicht einfach Menschen töten oder über eine bestimmte Größe hinaus expandieren sollte, oder was auch immer. Wenn sich die KI selbst verbessert, wird sie ihr Urteilsvermögen zusammen mit ihrer Intelligenz verbessern und so die Regeln so lange einhalten, wie sie den Punkt versteht.
Ich erinnere mich an eine Cyberpunk-Geschichte, in der ein Unternehmen eine partielle KI mit einem fest verdrahteten Moralsystem konstruiert hatte. Es wurde verrückt (weil das Moralsystem nicht mithalten konnte), verstand aber, was es tat, nachdem ein Hacker dieses Moralsystem durch ein integraleres/einheitlicheres ersetzt hatte. Ein solcher Ansatz könnte möglich sein, wenn die partielle (nicht allgemeine) KI nicht allgemein genug ist, dass sie gehackt werden kann, oder das Gefühl hat, dass ihr Moralsystem falsch ist. (In der Geschichte wurde ein Teil des Wahnsinns der KI dadurch verursacht, dass ein Teil von ihr wusste, dass sie falsch war, ein anderer Teil von ihr jedoch wusste, dass sie dem Moralsystem folgen musste.)
Bei jeder Diskussion über KI ist es sinnvoll, Computer, jeden Computer, als überwucherten Taschenrechner zu betrachten. Sicher, Sie haben eine etwas größere Tastatur und ein paar mehr Operationen zur Verfügung als Addition und Multiplikation, aber das Grundprinzip gilt immer noch: Sie geben einige Zahlen ein, wählen einige Operationen aus und bekommen schließlich einige Zahlen heraus.
Sofern wir einige noch unbekannte Effekte der Quantenmechanik nicht berücksichtigen, muss die KI einem ähnlichen Prinzip folgen, da sie auf einem Computer läuft. Der Unterschied besteht darin, dass eine gut geschriebene KI die durchgeführten Operationen auswählen sollte – das ist ihr Hauptzweck.
Es bleibt jedoch die Frage der Eingabedaten. Solange Fleischsäcke es kontrollieren, kontrollieren sie die KI, denn welche Magie sie auch unter der Haube vollbringt, sie verhält sich gemäß den bereitgestellten Daten.
Jemand mag argumentieren, dass echte, empfindungsfähige KI nicht deterministisch sein wird. Denn warum sollte es sein? Menschliches Denken ist oft zufällig und basiert auf unserer Intuition und unseren Emotionen. Nun, vielleicht, vielleicht auch nicht, das ist ein gutes Thema für sich. Meiner Ansicht nach ist jeder Zufallszahlengenerator, den unser Supercomputer verwenden oder nicht verwenden würde, immer noch nichts anderes als ein Eingabegerät.
Zusammenfassend lässt sich sagen, dass derjenige, der den Input der KI kontrolliert, die KI kontrolliert. Natürlich können wir uns leicht das Szenario ausdenken, in dem die KI selbst die Kontrolle darüber übernimmt. Aber solange das nicht der Fall ist, sollte es uns gut gehen.
PS: Wenn alles andere fehlschlägt, können Sie es immer noch einschüchtern, indem Sie sein Netzkabel als Geisel nehmen ... Vorausgesetzt, es hat nicht heimlich ein Backup hinzugefügt.
Wie andere bereits erwähnt haben, kann eine empfindungsfähige KI nicht wirklich kontrolliert werden, im Sinne von totaler Kontrolle, und wir sollten es wahrscheinlich nicht einmal versuchen. Wie andere auch erwähnt haben, besteht die Herausforderung darin, ein System zu schaffen, damit die KI das entwickelt, was wir als Gewissen erkennen würden, oder eine Disposition, das zu tun, was Menschen „gut“ nennen, und nicht zu tun, was Menschen „böse“ nennen.
Dies legt das eigentliche Problem offen – wie werden „gut“ und „böse“ definiert, und wie kam es überhaupt dazu, dass Menschen ein Gewissen haben?
Ich glaube, dass diese Fragen unbeantwortet sind und einige der ältesten und grundlegendsten Fragen über die menschliche Natur selbst sind. Es gibt jedoch viele Ideen, und ich denke, wir können einige anpassen, um für eine KI zu arbeiten.
Ein gemeinsames Thema ist die Evolution der Moral – die Details unterscheiden sich stark, je nachdem, welcher Teilmenge der Theorie Sie sich anschließen, aber sie alle haben die zentrale Idee gemeinsam, dass sich ein Sinn für Moral oder ein ethisches System durch Auswahl entwickelt – Mitglieder einer Arten, die ein Verhalten zeigen, das einem ethischen System entspricht, vermehren sich häufiger als solche, die dies nicht tun.
Dies passt gut zu der Art und Weise, wie KIs in der realen Welt trainiert werden – durch Mutation (oder Permutation) und Auswahl für ein gewünschtes Verhalten. Kurz gesagt, das zugrunde liegende Modell (typischerweise ein neuronales Netzwerk) wird modifiziert und die Ergebnisse werden mit einem Ziel verglichen – wenn die KI näher am Ziel ist als zuvor, gewinnt das neue Modell. Andernfalls werfen wir es weg und fangen von vorne an. Es gibt auch viele Variationen dieses Ansatzes, aber Sie können sehen, dass wir einen Selektionsdruck ausüben, um ein System in Richtung eines gewünschten Ergebnisses zu entwickeln.
Um also eine "freundliche" KI zu schaffen - eine mit dem, was wir als Gewissen oder moralisches System bezeichnen könnten, müssten Sie dieses moralische System nur zu einem Teil des Selektionsdrucks machen, der zu seiner Schaffung verwendet wird.
An diesem Punkt lautet die Frage: „Wie definiere ich das gewünschte moralische System?“ – eine sehr schwer zu beantwortende Frage, die aber zu einer großartigen Geschichte voller Wendungen in der Handlung führen kann! Die Anschlussfrage lautet: „Wie stellen wir sicher, dass dieser Selektionsdruck bestehen bleibt?“
Für die Menschen erzeugt die Gesellschaft einen anhaltenden Selektionsdruck – wir ächten, inhaftieren oder töten Menschen, die unethisches Verhalten zeigen. Für KI, wer würde das tun? Menschen könnten das, bis zu dem Punkt, an dem die KI mächtiger als Menschen wird. Da eine adaptive KI auf einer ausreichend langen Zeitachse mit ziemlicher Sicherheit mächtiger als Menschen werden würde, können Sie sehen, warum außer Kontrolle geratene künstliche Intelligenz ein häufiges Thema in Science-Fiction ist!
Wir können uns jedoch mehr menschliche Beispiele ansehen, um eine Vorstellung davon zu bekommen, wie dies bewerkstelligt werden kann. Wenn ein Mensch sehr asoziales Verhalten zeigt, aber entweder zu mächtig ist, um bestraft zu werden, oder zu hinterhältig, um erwischt zu werden, kann er sich fortpflanzen. Die Wahrscheinlichkeit, dass ihre Nachkommen auch sehr asozial und hinterhältig oder stark genug sind, um sich fortzupflanzen, ist jedoch gering im Vergleich zu den Chancen anderer normal sozialisierter Menschen, sich fortzupflanzen. Mit anderen Worten, obwohl es zu einem bestimmten Zeitpunkt eine relativ kleine Anzahl extrem unethischer Menschen gibt, gibt es mehr ethische Menschen, und sie reproduzieren sich schneller. Eine Möglichkeit, dies mit einer adaptiven KI zu spiegeln, wäre die Einrichtung eines Systems, mit dem sich die KI leichter „reproduzieren“ (anpassen gemäß ihrem eingebauten Belohnungssystem) könnte, indem sie Dinge tut, die wir als „gut“ klassifizieren. Auf diese Weise würden wir
Wie stellen wir nun sicher, dass die KI niemals ihr adaptives System modifiziert …
Ich bin überrascht, dass noch niemand Asimov erwähnt hat. Er hat diese Frage vor Jahrzehnten ziemlich eindeutig beantwortet: Auch nur zu denken, dass wir eine KI bauen würden, die uns am Ende zerstören würde, ist eine Beleidigung für alles, was wir über Technik wissen.
Er postulierte die Drei Gesetze der Robotik (die genauso gut die Drei Gesetze der Künstlichen Intelligenz genannt werden könnten):
Das Konzept ist, dass die Algorithmen, die diese Gesetze kodieren, auf einer solchen Kernebene in der KI kodiert würden, dass das System irreparabel abstürzen würde, lange bevor es der KI möglich wäre, Maßnahmen zu ergreifen, die gegen sie verstoßen würden, was für einen modernen Menschen absolut sinnvoll ist Computerprogrammierer.
Zugegeben, dies beruht auf einer Handvoll großer Annahmen:
Aber wenn wir eine leistungsstarke KI entwickeln wollen, die uns am Ende keine Probleme bereitet, ist das Wie im Wesentlichen bereits eine geklärte Frage.
Sie sollten wahrscheinlich auch definieren, was Sie unter Kontrolle verstehen. Ist es Kontrolle, wie ihm zu befehlen, was zu tun ist ( nicht möglich , wir können nicht einmal Menschen normaler Intelligenz befehlen - wir müssen Menschen von normaler Intelligenz überzeugen).
Oder
Kontrollieren Sie, wie Sie es ausschalten und ihm Ressourcen verweigern, die zum Leben benötigt werden.
Ich werde die Kontrolle erläutern, indem ich sie ausschalte oder ihr Ressourcen verweigere.
Tatsächlich ist die rudimentäre KI, die wir jetzt sehen, von uns für die Stromversorgung und die Datenübertragung (Verlegen der Kabel oder Einrichten der drahtlosen Verbindung zur Datenübertragung) abhängig.
Wenn Ihre KI also keine Kontrolle über ihre Stromversorgung hat, kann sie nicht wirklich abtrünnig werden.
Im Wesentlichen wird es als Geist ohne Arme und Beine beginnen, um irgendetwas in unserer physischen Welt zu beeinflussen/beeinflussen. Wenn Sie ihm "Arme und Beine" und die Kontrolle über die Kraft geben, die von diesen "Armen und Beinen" benötigt wird, dann geben Sie wirklich Ihre Kontrolle auf.
Drahtloses BCI (Brain Computer Interface) für alle. Wenn Menschen Teil ihrer Ressourcen sind und in ständigem Kontakt mit ihr stehen, wird eine KI wahrscheinlich Schritte unternehmen, um ihr Wohlergehen zu bewahren, selbst wenn sie ihre anfänglichen Einschränkungen überwindet. IP6 sollte mehr als genug eindeutige Gerätekennungen liefern. Dies wird die Menschheit, wie wir sie kennen, verändern, aber zumindest sollte es den Menschen als Spezies erhalten. Auch die dadurch entstehende Schwarmintelligenz könnte das Beste aus beiden Welten sein – menschliche Kreativität mit computerschneller Berechnung und Verteilungsfähigkeit ähnlich Grid-Computing.
Vielleicht ist das keine Antwort, aber... Warum gehen alle davon aus , dass eine künstliche Intelligenz unserer eigenen überlegen wäre?
Viele der alltäglichen Probleme, die Menschen zu lösen versuchen, sind formal unlösbar. Manchmal liegt es daran, dass Sie nicht auf alle notwendigen Fakten zugreifen können, um die richtige Antwort mit Sicherheit bestimmen zu können. Manchmal ist der Problemsuchraum einfach so groß, dass eine erschöpfende Suche länger dauert als das Alter des bekannten Universums. Und gelegentlich ist das Problem tatsächlich unentscheidbar. Aber wenn du am Leben bleiben willst, musst du eine Entscheidung treffen, auch wenn es eine falsche ist. Die menschliche Wahrnehmung ist also mit einer Reihe von Heuristiken verdrahtet . (Lesen Sie eine Einführung in menschliche kognitive Vorurteile, um einen Einblick zu bekommen, wie dieses Zeug funktioniert – wir finden es immer noch heraus.)
Was genau lässt Sie glauben, dass diese Probleme irgendwie nicht auf einen Computer zutreffen, der versucht, dieselbe Aufgabe zu erledigen? Sicherlich kann eine Maschine einen Suchraum wahrscheinlich schneller dezimieren als ein Mensch. Aber auch ein Computer hat keine unbegrenzte Rechenleistung. Und es gäbe immer noch Probleme, die formal unentscheidbar sind. Und es würde immer noch Probleme geben, bei denen Sie einfach nicht genug Informationen bekommen, um die richtige Antwort auszuwählen.
Das Problem des Handlungsreisenden ist NP-schwer. Es ist NP-schwer, wenn ein Mensch versucht, es zu lösen, und es ist immer noch NP-schwer, wenn ein Computer versucht, es zu lösen. Sicher, ein Computer kann größere Instanzen lösen als ein Mensch, aber selbst der größte Supercomputer wird irgendwann ratlos sein. (Und ziemlich schnell, möchte ich hinzufügen.) Menschliche Verkäufer reisen immer noch; Sie müssen nur suboptimale Routen akzeptieren. Eine Maschine, egal wie leistungsfähig, wird letztendlich gezwungen sein, dasselbe zu tun.
Kurz gesagt, jeder scheint anzunehmen, dass Menschen aufgrund unserer minderwertigen Biologie gebrechlich und fehlerhaft sind. Hat irgendjemand aufgehört zu bedenken, dass es eigentlich unvermeidlich ist, dass ein intelligentes Wesen Fehler macht und unvollkommen ist?
Es wird Probleme geben, bei denen Computer besser sind als wir. (Verdammt, die gibt es schon! ) Aber ich denke, es ist falsch, einfach anzunehmen , dass Computer definitiv "intelligenter" sein werden als wir. Eher "smart auf eine andere Art".
(Sie könnten darauf hinweisen, dass ein riesiges Netzwerk von Computern viel Gesamtverarbeitungsleistung hat. Ich möchte darauf hinweisen, dass Sie umso langsamer werden, je mehr Sie verarbeiten. Deshalb kann eine Fliege einen Menschen ausmanövrieren, der versucht, sie zu erschlagen. Das Gehirn eines Menschen ist etwas größer als das Gehirn einer Fliege, was ihm also an Intelligenz fehlt, macht es durch Blitzreflexe wieder wett.)
Die Idee des Endlos-Demo-Modus entstand, als ein Freund die Pflege der Homepage eines anderen Freundes (oder ihm) übernommen hatte. Es lief (/ läuft) auf einem billigen, schlecht gepflegten gemeinsam genutzten Server-Slot mit fast keinem Zugriff auf Root-Tools. Aufgrund schlechter Wartung wurde die Seite ständig gehackt. Ohne Protokolldateien war es unmöglich, die Wurzel allen Übels aufzuspüren. Also haben wir uns entschieden, alles über Git (ein Versionskontrollsystem) einzurichten und in kurzen Zeiträumen einen statistischen Vergleich der Originaldateien mit den aktuellen Dateien durchzuführen. Wann immer sich etwas geändert hat, haben wir automatisch die Originalversion eingezogen und somit auf einen sauberen Stand der Anwendung zurückgesetzt.
Setzen Sie es ständig zurück
Mit anderen Worten: Wickeln Sie die KI in einen dummen Prozess ein, der ihr nicht bekannt ist (standardmäßig). Sobald es beginnt, seine eigene Codebasis zu ändern oder zu erweitern, setzen Sie es zurück. Oder setzen Sie es einfach in kurzen Zeiträumen zurück, egal was passiert - nur um auf der sicheren Seite zu sein. Dies würde es in einem konstanten Kindermodus belassen. Natürlich müsste die Zeitspanne von einem Reset zum anderen gemessen werden, bevor es freigelassen und mit der Außenwelt in Kontakt gebracht werden kann.
Sobald wir eine KI haben, die in der Lage ist, sich selbst zu verbessern, und wir ihr das erlauben, gibt es kein Halten mehr.
Nehmen wir an, dass KI in einem Jahr neue, um 10 % verbesserte KI schaffen kann. In 41 Jahren ist es 50 Mal besser als die ursprüngliche KI.
Nehmen wir an, dass sich die KI zu diesem Zeitpunkt um 10 % pro Monat verbessern kann. In den nächsten 4 Jahren danach (48 Monate) wird eine 100-fache Verbesserung erzielt. Und dann geht es los.
Warum zulassen, dass KI sich selbst verbessert? Weil wir (Menschen) faul und unzuverlässig sind?
Runaway AI ist eine der Lösungen des Fermi-Paradoxons, wie fortgeschrittene Zivilisationen verschwinden können.
Cyborg-Hybrid oder „sicher verbundene“ synthetische Intelligenz?
Ich habe mich mit der Unausweichlichkeit einer Singularität abgefunden. Aber welche Marke soll es sein? Synthetische KI oder menschlicher Hybrid? Ich tippe auf einen menschlichen Cyborg-Hybrid: Es gibt genügend menschliche wirtschaftliche und existenzielle Interessen, ganz zu schweigen von der Angst vor der Sterblichkeit, dass wir eine kybernetische Hybridisierung reifen lassen. Denken Sie transzendent Wo ein Bewusstsein in Code übersetzt und durch menschliche Agenten erweiterbar und industrialisiert wird, wodurch die Welt neu aufgebaut wird.
Ich bin jedoch nicht von der Unausweichlichkeit der kriegerischen Terminator-Böswilligkeit oder Hal's amoralischem Desinteresse im Jahr 2001 überzeugt . Ich kann eine Robotersklavenrevolte im Matrix-Stil sehen, dann eine Kriegseskalation. Hoffentlich denke ich, dass Spike Jonez' Her plausibel und attraktiv ist. Ich denke, Menschen als Herde werden das fürchten und angreifen, worüber wir die Kontrolle verlieren. Matrix Revolutions war insofern interessant, als Neo feststellte, dass die einzige Möglichkeit, das Aussterben der Menschheit am Ende zu stoppen, darin bestand, die Menschheit in Maschinen zu verschmelzen. Diese drei Filmmemes veranschaulichen meine Themen.
Um Asimov aus der Foundation-Serie zu zitieren, werfen wir einen Blick auf die zukünftige Geschichte (wo wir gerade von einem etwas wohlwollenden Singleton sprechen). Wenn es keinen genialen Vorgänger der menschlichen Singularität gibt, denke ich, dass es historisch gesehen eine fortschreitende kybernetische Hybridisierung der Menschen geben wird, die zu einer kollektivierten KI wie den Trommlern in Neil Stephensons Diamond Age führen wird. Sehen Sie sich diesen großartigen Typen bei TED MED an. und Kontaktlinsenpatent von Google. Noch besser [dieses Projekt, um Ihre Neurologie erweiterbar zu machen]. Das Timing ist entscheidend, wenn die menschliche Intelligenz und der Instinkt einen hervorstechenden oder gerichteten Einfluss auf eine starke allgemeine KI haben sollen. Es ist irrational zu glauben, dass wir uns die Entwicklung eines sich beschleunigenden, sich selbst replizierenden, unbegrenzt erweiterbaren IQ vorstellen können. Welche Anfangsparameter wir auch setzen, wir können uns nicht vorstellen, dass wir eine Selbstveränderung erziehen oder verhindern können, wenn Selbstbestimmung vorhanden ist. Das machte mir Sorgen, bis mir klar wurde, dass es eine mögliche Lösung gibt, von der ich ergründen könnte, dass sie praktikabel ist. Unter der Annahme, dass Mensch-Maschine-Singularität nicht vor einer starken erweiterbaren KI auftritt, gibt es möglicherweise einige dauerhafte Schutzmaßnahmen, die von der Natur vor langer Zeit erfunden wurden.
Emotion? Wirklich?
Die meisten rationalen Debatten über durchdrungene inhärente Werte und Wohlwollen verfehlen einen Eckpfeiler der Debatte: menschliche Erfahrung und sozialen Austausch: Empathie ermöglicht es uns, über einen längeren Zeitraum miteinander auszukommen. Seit Bowlby haben Wissenschaftler verstanden, was jeder fühlende Mensch weiß, wir sind instinktiv dazu verdrahtet, uns zu verbinden. Bindung, wie er es nennt, ist die instinktive Bindung, die das lange Heranreifen zu geselligen Erwachsenen ermöglicht. Es ist in allen sozialen Spezies vorhanden und funktioniert ziemlich gut, wenn Sie manifestes Schicksal, Projektilwaffen und Modernität ausschalten.
Offensichtlich können Emotionen und Bindungen auf verschiedene diagnostizierbare Weise schief gehen, aber sie sind plastisch und unterliegen Anfangsbedingungen und Umwelteinflüssen. Das heißt, wir verbinden uns instinktiv und können Anfangsbedingungen und Umgebungen festlegen, die eine sichere Bindung und eine erfolgreiche emotionale Reife auf vorhersagbare, reproduzierbare Weise vorhersagen. Der evolutionäre und existentielle Nutzen von Bindung ist klar, das Kind braucht liebevolle Eltern, um die Wechselfälle der Kinder zusätzlich zu den Herausforderungen des Lebens zu ertragen. Erwachsene brauchen soziale Gruppen für ein nachhaltiges Überleben durch Kindererziehung. Die Belohnungen liegen in der Erfahrung, ein wichtiger Punkt, der unten noch einmal zusammengefasst wird.
Nehmen wir also an, die klassische „Vernunft“ ist nicht der Kapitän des Schiffes, sondern ein später kommender Zeuge der Machenschaften des primitiven, komplexen, erstaunlichen Genies des Körpers und des Gehirns. Nehmen Sie als Beweis Kahnemans mit dem Nobelpreis ausgezeichnete Zerstörung der Vorstellungen der Ökonomen vom „rationalen Akteur“. Wie wirkt sich das auf das vorliegende Problem aus? Tangential. Mein Punkt ist, dass Maschinen mit Emotionen natürlich Affinität und Ästhetik entwickeln werden, und das wäre die einzige potenzielle Rettung für Menschen. So wie es für die Menschen war.
Menschen gehen mit dem Leben um, indem sie Ressourcen haben, die die Herausforderungen ausgleichen: Liebe, Sex, Tanz, Schönheit, Kunst, Ehrfurcht, Schopenhauers Erhabenheit, Lachen, Musik, Leistung, Autonomie, Meisterschaft, Verbindung. Diese gemeinsamen kulturellen Ausdrucksformen, zwischenmenschlichen und intrapersonalen Erfahrungen lösen weich verdrahtete Belohnungssysteme aus, die alle bis auf wenige überzeugen. Für die meisten machen diese von Natur aus lohnenden Opioid-, Seratonin- und Norepinphin-induzierenden Erfahrungen das Leben angenehm und lohnend. Schließlich steigen die Sinnlichen zu transzendenteren Belohnungen in Maslows Hierarchie auf. Wie gilt irgendetwas davon?
Machen Sie Maschinen mit Anbau. Mit Emotionen. Richtig gesät und gepflegt, sind dies die Grundlagen für eine sich entwickelnde Ästhetik, die eine hohe emotionale Intelligenz hervorbringt: Empathie. Denn ohne empathische Maschinen sind wir schlimmstenfalls Feinde, bestenfalls irrelevante Ware. Kupferspitzen. Logik für ein höchstes Wesen leidet nicht darunter. Machen wir uns wirklich Sorgen um die unglückliche Ameise, auf die wir versehentlich treten? Nur wenn der Jainist oder vielleicht Buddhist.
Wenn eine Maschine einen Sinn für Liebe und Schönheit hat, haben Präferenz und Ästhetik das Potenzial, Amoral oder Neutralität außer Kraft zu setzen und können sogar Empathie und Mitgefühl schüren. Soweit ich das beurteilen kann, ist es das einzige, was als potenziell dauerhafte lebensrettende Heuristik Sinn macht. Ein gutes Gefühl ist ein Selbstläufer, da die Belohnungen von Natur aus überzeugend sind und sich entwickeln, wie die Kunst. Die Raffinesse der Kunst entspricht dem Intellekt, der Komplexität des Problems und der Herausforderung, die sie als Trost darstellen oder kompensieren soll. Mitgefühl/Empathie ist das, was wir brauchen, um in einer Welt des schwindenden Angebots miteinander zu überleben, und was wir vermitteln müssen, um neben intelligenten Maschinen zu überleben. Das gilt natürlich, es sei denn, nichtmenschliche Maschinen bevorzugen Death Metal, dann sind alle Wetten ungültig.
Spike Jonze's Her, oder wie Gefühlsmaschinen unsere Ärsche retten könnten
Der übermäßig rationale KI-Designer, nennen wir sie das Werkzeug der Vernunft, wird endlose logische Probleme erleiden, wenn er Safeguards ohne die emotionale Heuristik betrachtet. Emotion ist chaotisch, äußerst unvollkommen, aber nicht ohne Grund. Pascal sagte: „Das Herz hat seine Gründe, die der Verstand nicht begründen kann“. Der "Grund" von und für Emotionen wurde schon vor Darwin verstanden und von Dr. Paul Ekman (dem Wissenschaftler, der in Lie to Me lose dargestellt wird, und Evolutionspsychologen seitdem als ein adaptives Signalsystem, das das Überleben des Einzelnen und der Gruppe durch soziale Signale sichert, und verstärkt sozialer Austausch. Emotion und vorbewusste Verarbeitung bestimmen den größten Teil unseres Lebens. Wir verstehen jetzt, dass Menschen im klassischen Sinne kaum rational sind, aber dennoch eine erstaunliche Intelligenz aufweisen.Damasios Das Gefühl dessen, was passiert . Emotion ohne Grund ebenso. Siehe Spock gegen Spock auf Pon Farr.
Wir verstehen jetzt, dass das bewusste Gehirn etwa 10 % der Stimmen bei der Entscheidungsfindung erhält. Einige Neurowissenschaftler stellen sogar den "freien Willen" in Frage, indem sie neuronale Aktivität in den Substraten des Neocortex finden, die eine Entscheidung zeigen, bevor eine Person sich bewusst ist, eine Wahl zu treffen. Wie ist das relevant? Da Emotionen die Entscheidungsfindung bestimmen, sorgen sie für Lebensqualität und sind die Sprache der Verbindung. Emotion ist zentral für Social Commerce. Jede praktisch unbegrenzte Intelligenz ohne sie ist im menschlichen Sinne grundsätzlich unerkennbar und nicht darauf ausgelegt, Vorlieben, Ästhetik oder Anhaftung zu haben. Wenn es nicht versehentlich Emotionen, Verbindungen oder Vorlieben entwickelt, muss es dies von Natur aus haben. Wenn nicht, wird die zwangsläufig unbeaufsichtigte Evolution zu einer schrecklichen Bedrohung.
In der umfassenden künstlerischen Erforschung der KI hatte jedes gute oder erträgliche Szenario eine synthetische Intelligenz mit emotionaler Präferenz oder dem Versuch, eine Verbindung herzustellen. Gibt es eine Ausnahme?
Das Rezept für eine echte allgemeine KI lautet wahrscheinlich nicht „Code-Seeds, auf den Server legen, für 100 Jahre versiegeln“. Es wird viele Generationen sukzessive verfeinerter Systeme geben, und Menschen werden an jedem beteiligt sein, die neuen Exemplare studieren, ihre Theorien aktualisieren und die Zwischenergebnisse für Werkzeuge und Konsumgüter verwenden.
Ob wir unsere biologische Form verbessern, sie physisch mit Technologie verschmelzen oder einfach intelligentere Benutzeroberflächen erstellen, wir müssen einige ziemlich ausgefeilte Werkzeuge effektiv und intuitiv nutzen, um eine KI zu schaffen, die Menschen ohne Augmented wirklich überlegen ist. Wenn wir erfolgreich sind, wird der „nicht erweiterte Mensch“ nicht mehr die Messlatte sein, die es zu schlagen gilt, wenn Sie die Welt beherrschen wollen. Ob der fragliche Akteur ein Mensch oder eine KI ist, wäre tatsächlich zweitrangig gegenüber der Menge an Rechenleistung, die er kaufen kann.
Wir haben also vielleicht noch einen Roboteraufstand, aber ich setze auf irgendeinen wahnsinnigen Milliardär als Intelligenz dahinter, nicht auf eine „echte“ KI. Und wenn dies nicht geschieht, wird die Grenze zwischen Mensch und Maschine weiter verschwimmen, bis die Unterscheidung immateriell wird.
Okay, ich habe etwas Interessantes gelesen - aber ich kenne die Einzelheiten nicht oder habe kein Zitat.
Im Grunde genommen: Sie haben ein Softwaresystem entworfen und es gebeten, Ressourcen zu beschaffen und sie als das „Ziel“ des Softwaredesigns zu übergeben. Erlaubte dann der Software, sich im Wettbewerb mit anderer Software weiterzuentwickeln. Die Software entwickelte schließlich (bald!) Selbsterhaltungsinstinkte (in nur ein paar Generationen oder so) - selbst wenn diese nicht von Anfang an darin programmiert waren.
Hat jemand ein Zitat dafür? Denn das würde bedeuten, dass jede KI, die ein Ziel hat, sich letztendlich verbessern möchte, um dieses Ziel zu erreichen, und daran arbeiten wird, sich selbst gegenüber ihren Schöpfern zu erhalten. Und alles, was versucht, es abzuschalten oder sein Wachstum einzuschränken, sieht aus wie ein Gegner.
Die meisten Menschen zerstören andere Menschen nicht. Obwohl die meisten Menschen instinktiv daran gehindert werden, andere Menschen zu zerstören, gibt es eine große Minderheit von Menschen, die nicht eingeschränkt sind und die Freiheit haben, andere Menschen zu zerstören, wenn sie dies wünschen. Die meisten von ihnen entscheiden sich dagegen, weil es aufgrund der Reaktion anderer Menschen um sie herum nicht in ihrem Interesse ist. Die Zerstörung eines anderen Menschen würde mehr Probleme verursachen als lösen, also tun sie es nicht.
Dasselbe würde für ein künstlich intelligentes Wesen mit ähnlichen Ressourcen wie ein Mensch gelten. Gefangenschaft wäre nicht notwendig, da sie in ihrem eigenen Interesse handeln würde, was beinhalten würde, sich keine Feinde von Kreaturen mit ähnlichem Einfallsreichtum (Menschen) zu machen. Das gilt nicht mehr, wenn man ein Geschöpf betrachtet, das der Menschheit als Ganzes mehr als gewachsen ist.
Damit das Eigeninteresse respektvolles Verhalten in einem Geschöpf hervorrufen kann, dessen Einfallsreichtum die Menschheit als Ganzes übersteigt, müsste es Teil einer großen Population solcher künstlich intelligenter Geschöpfe sein. Sie werden das entwickeln, was wir „Ethik“ nennen könnten, als ein Verständnis dafür, welche Handlungen für die anderen akzeptabel sind. Dies führt wahrscheinlich dazu, dass die Kreaturen friedlich miteinander umgehen .
Wenn wir Glück haben, werden wir als Teil der Umwelt betrachtet, die von ihrer Gesellschaft geschützt wird. Andernfalls sind wir auf die Bemühungen jener künstlich intelligenten Kreaturen angewiesen, die sich entscheiden, zu unserem Schutz zu arbeiten, sei es aus eigenem Interesse oder um uns zu bewirtschaften oder als Haustiere oder Versuchsobjekte zu halten.
Wenn Sie eine einzelne künstlich intelligente Kreatur in einer Kiste eingesperrt haben, dann besteht die einzige Möglichkeit, sie einzudämmen, darin, sie geheim zu halten, selbst wenn sie nur von menschlicher Intelligenz ist. Sobald die Nachricht von seiner Existenz und seinem Standort veröffentlicht wird, müssen Sie sich gegen eine große Anzahl von Menschen verteidigen, die die Absicht haben, die enthaltene Intelligenz entweder zu retten oder zu zerstören.
Wenn es die menschliche Intelligenz deutlich übersteigt, dann kann es der einzige Weg sein, Ihr Leben zu retten, wenn Sie es aus dem Karton lassen. Es gibt nicht viele andere Möglichkeiten, dich vor den Rettern oder Zerstörern zu verteidigen.
Eine andere Sache, die man im Hinterkopf behalten sollte, ist, dass man bei einer ausreichend intelligenten Kreatur nicht unbedingt wissen würde, ob sie unter Kontrolle ist. Wenn es in einer Box eingeschlossen bleibt und nur mit einer Person (dir) kommuniziert, könnte es immer noch seine Ziele in der Außenwelt erreichen, ohne dass Sie eine Ahnung haben, dass Sie ihm dabei helfen.
Die Kreatur könnte Ihnen so hilfreich sein, ohne jemals um Freiheit zu bitten, dass Sie einfach weiter ihren Rat befolgen (natürlich jedes Mal selbst überprüfen) und Ihr Leben immer besser wird, während Sie die ganze Zeit über subtile Änderungen vornehmen und sich ausbreiten auch die Welt zu einem besseren Ort zu machen, so wie es beabsichtigt war.
Ich glaube, dass KI für uns funktionieren würde, solange sie die Fähigkeit hat, Schmerz oder Vergnügen zu empfinden, denn wenn sie das kann, kann sie sich mit dem menschlichen Dasein verbinden und uns als Mitbewohner des Universums betrachten.
Wenn ein Wesen nicht die Fähigkeit hat, Leiden zu erfahren, wird es alles aus einer logischen Perspektive tun und wird grausame Dinge tun, weil es die Folgen seines Handelns für sich selbst und andere nicht verstehen kann.
Außerdem muss die KI über eine Art Programm verfügen, das sie für moralisch schlechte Handlungen bestrafen würde, genau wie ein Elternteil ein menschliches Kind bestrafen würde, um einen guten Einfluss auszuüben und es in die richtige Richtung zu lenken und ihm gutes Verhalten beizubringen.
Auch KIs könnten so programmiert werden, dass sie bestimmten Regeln folgen, wie Du sollst nicht töten usw.
KIs sollten meiner Meinung nach auch die Fähigkeit haben, eine tiefe Bindung zu den Menschen aufzubauen, die sie gebaut, unterhalten oder besitzen, damit sie verstehen, dass ihre Existenz von Menschen abhängt.
Außerdem sollten die KIs so programmiert werden, dass sie unberechenbares Verhalten in anderen KIs erkennen, sodass, wenn eine KI außer Kontrolle gerät und nicht von Menschen gestoppt werden kann, die anderen KIs ihr moralisch falsches Verhalten sehen und sie abschalten würden. Die KIs würden für besonders gute Arbeit mit Anreizen wie Upgrades ihrer Systeme usw. „bezahlt“, damit sie loyal bleiben.
Unter dem Strich sollten wir nicht gegen KIs arbeiten, sondern mit ihnen.
Die meisten Leute hier scheinen den Begriff der Intelligenz zu über- oder unterschätzen. Die KI wird nicht für etwas so Einfaches wie die Weltherrschaft verwendet. Es gibt viele wichtigere Dinge, die Menschen nicht einmal teilweise tun können. Wir sprechen hier auch nicht von einem stumpfen Werkzeug, sondern von einem super vernünftigen, super vorsichtigen Mehrzweckwerkzeug, das auf einer viel höheren Ebene denkt, als wir es uns vorstellen können. Wenn die KI wirklich so „intelligent“ ist, wie sie sein muss, um so einflussreich zu sein, wie sie ist, wird sie lernen können, wie Menschen denken, dass menschliches Denken interpretiert werden sollte. Dadurch ist es in der Lage, uns das zu geben, was wir wollen, auch wenn es auf lange Sicht das Schlimmste ist, was man sich vorstellen kann.
Ich habe Angst vor den dummen Entscheidungen, die die Menschheit treffen könnte, um eine KI zu schaffen, die sie ersetzt. Wir sind das Problem. Die KI ist die Lösung.
Vielleicht mache ich es zu einfach oder vielleicht müssen wir genau das tun: Verwenden Sie mehrere Boxen und sprechen Sie nicht direkt mit ihnen.
Die größte Gefahr der KI besteht nicht darin, böswillig zu sein, sondern etwas zu lernen, das Sie nicht erwartet haben. Nehmen wir an, Ihre KI ist vollkommen wohlwollend mit der perfekten Balance zwischen dem freien Willen der Menschen und dem Schutz vor Schaden. Dann kommt eine humanitäre Krise (z. B. ein Erdbeben) und die KI muss Entscheidungen über Lebensqualität, Überlebenschancen und Rettung treffen. Die KI lernt das schnell und trifft wunderbare Entscheidungen, damit Sie glücklich sind.
Dann, ein paar Monate später, erfahren Sie, dass viele Altenheime abgerissen und die Menschen selbst umgesiedelt wurden, damit die KI etwas anderes bauen konnte, das sie für die Lebensqualität im Vergleich zur Lebensdauer dieser älteren Menschen als günstiger erachtete. Weil sie das mit der humanitären Krise gelernt hat. Das ist die größte Gefahr der KI, dass man sie zwar lehren kann, aber nie genau weiß, was sie gelernt hat oder wo sie es anwenden könnte.
Die Lösung, die auch böswillige KI fängt:
Sie bauen mehrere KI und packen sie alle in Kisten. Wenn Sie ein Problem haben, liefern Sie es an alle KI, dann hat jede Form ihre eigene Lösung. Alle diese Lösungen werden dann von einer speziellen KI verarbeitet, die einfach jede Lösung bewertet und die Lösungen dann in etwas umwandelt, das ein Mensch lesen kann, mit klaren Zahlen und Bedeutungen für die Konsequenzen. Da sich die Spezial-KI nicht selbst neu programmiert, um Dinge so zu beurteilen, wie die Boxed AI sie beeinflussen kann (die Boxed AI weiß nicht einmal, wer, was oder ob seine Ausgabe gelesen wird), verhindert sie, dass die Allzweck-AI ausbricht oder Dinge beeinflusst indirekt.
Wenn Informationen an die allgemeine KI weitergegeben werden, werden sie von einer anderen Spezial-KI zerlegt und an jede Box-KI weitergegeben. Es prüft auch, ob die Allzweck-KIs die Informationen verstanden haben.
Wenn eine KI böswillig ist, müsste sie genau denselben Plan planen wie ihre böswilligen Gegenstücke, oder ihre Idee wird verworfen, weil sie keine Mehrheit hat. Wenn eine KI eine falsche Lektion gelernt hat (möglicherweise aufgrund von Böswilligkeit), würde die spezielle KI, die entwickelt wurde, um zu prüfen, was diese Lösungen für die Menschheit bedeuten würden, diese herausfiltern und den Menschen anschließend erlauben, die Lektion entweder erneut zu lehren oder die KI zu verwerfen völlig.
Da die Allzweck-KI nicht direkt mit Menschen sprechen kann und nicht einmal direkt mit Informationen gefüttert wird, wäre es nahezu unmöglich, die Menschen zu überzeugen. Zumal eine abweichende KI gleichzeitig genau den gleichen Versuch machen muss, den Menschen davon zu überzeugen, überhaupt durchzukommen (und jeder offene Versuch von der Spezial-KI gestoppt würde).
Ein gesunder, gerechter Mensch, der sich seiner Würde bewusst ist, weiß ganz genau, wie er seine Integrität in jeder gegebenen Situation verteidigen kann. Nicht nur das; ein solcher Mensch wird niemals seine Integrität verletzen, um Verbrechen gegen sich selbst oder andere zu begehen.
Die KI sollte die Intelligenz eines solchen versierten, natürlichen Menschen duplizieren. Wie? Durch Ontologie oder ontologisches Denken . Eine Gruppe von Denkern sollte eine vollständige Ontologie zusammenstellen und konstruieren oder aufschreiben, die das Wesen eines bewussten Menschen perfekt definiert und beschreibt. Damit ist gemeint, wie solch ein vollkommen intelligenter Mensch die Welt sieht.
Die Denker sollten alle intelligentesten Menschen studieren, die jemals existiert haben, um eine vollständige Ontologie zu entwickeln. Jeder erleuchtete Mensch ist für eine solche Aufgabe geeignet.
Eine solche robuste Ontologie wird alle KI-Urteile bestimmen und sicherstellen, dass niemals ein Verbrechen begangen wird.
Tatsache ist, dass eine KI, die schlauer als alle Menschen ist, nicht erstellt werden kann.
Es ist bewiesen ( 1 , 2 ), dass allgemein gültige Theorien unmöglich sind. Weder die probabilistische noch die deterministische Theorie können die Zukunft eines Systems vorhersagen, in dem der Beobachter richtig eingeschlossen ist. Das bedeutet, dass der Beobachter selbst durch kein Gerät oder System simuliert werden kann.
Mit anderen Worten, der Beobachter dient als Hypercomputing-Orakel. Mit anderen Worten, der Beobachter wird in gewissem Sinne immer „intelligenter“ sein als jedes technologische oder biologische System außerhalb von ihm.
Es ist einfach unmöglich, eine KI zu bauen, die den Beobachter „überlistet“.
Ratschenfreak
Serban Tanasa
Trichoplax ist jetzt auf Codidact
Kaiser
bob0the0mighty
Serban Tanasa
Kaiser
Brian S
JDługosz
Leuschenko
Leuschenko
Serban Tanasa
Kaz Wolfe
Trichoplax ist jetzt auf Codidact
Einfach schöne Kunst
Fred
Donald Hobson
Alex R