Die Herausforderung, eine leistungsstarke KI zu steuern

Inzwischen kennt jeder die bemerkenswerten Errungenschaften von Spezial-KIs wie Deep Blue und Watson . Nun ist klar, dass wir mit fortschreitendem Wissen über algorithmische Methoden und die Feinheiten menschlicher neuronaler Systeme immer fortschrittlichere Formen des künstlichen Denkens sehen werden.

Unter der Annahme eines fortgesetzten exponentiellen oder sogar linearen Wachstums der Fähigkeiten wird logischerweise ein Punkt eintreten, an dem wir in der Lage sein werden, eine allgemeine künstliche Intelligenz aufzubauen , und diese künstliche Intelligenz die Fähigkeit hätte, durch Lernen und Selbstverbesserung jede biologische zu überdenken Mensch.

Abgesehen davon, es in einem Bunker ohne Internetzugang und einem 1-Bit-Ausgabemodus (ja/nein) einzusperren (und ich bin mir nicht sicher, ob selbst das funktionieren würde, angesichts strategischer Anreize, um zu versuchen, eine solche KI umfassender zu nutzen), wie Könnte eine solche KI möglicherweise von Menschen gesteuert werden?

BEARBEITEN: Ich gehe nicht davon aus, dass die KI böse sein und sich alle Mühe geben wird, uns aus reiner Bosheit oder Hass zu schaden. Das Problem ist einfach, dass wir die langfristigen Folgen einer Reihe von eingebauten Motivationen und/oder Zielen, mit denen wir dieses Wesen ausstatten könnten, nicht vorhersehen können. In seinem Buch Superintelligence skizziert Bostrom, wie leicht gutartige und plausibel klingende Ziel-/Wertspezifikationen dazu führen können, dass die Menschheit ausgelöscht wird.

Das KI-Box-Experiment ist eine interessante Anekdote, aber in keiner Weise endgültig. Im letzten Absatz hatte ich angesichts des zulässigen 0/1-Ausgabemodus etwas mehr im Sinne von Oracle AI (um die Bostrom-Terminologie zu verwenden).
Eines der größten Probleme besteht darin, die Entstehung der KI im Voraus zu erkennen. Wenn etwas so intelligent wird, bevor wir die Notwendigkeit sehen, es einzuschränken, ist es zu spät ...
In welcher zukünftigen Zeit liegt dieses Szenario? In 15 Jahren? 100? 1000?
Es gibt ein kürzlich erschienenes Buch zu diesem Thema, das ein guter Ausgangspunkt wäre, da es auch viele Ressourcen auflistet: Superintelligenz Das Buch untersucht das Thema der Planung für die letztendliche Verwirklichung von Intelligenzen, die mächtiger sind als die Menschheit.
@kaiser Woher soll ich das wissen? Die KI könnte in 5 oder 50 Jahren zuschlagen oder ein unvorhergesehenes technisches Problem könnte die Frage hinfällig machen.
Jede Frage braucht eine Basis. Und „ein Punkt wird logischerweise kommen, an dem wir in der Lage sein werden, allgemeine künstliche Intelligenz zu bauen“, schreit nach einem, weil Sie nicht angegeben haben, was KI [in Ihrer Frage] ist und nicht, was „allgemeiner Zweck“ bedeutet und was es sein sollte wird benutzt für.
Sie brauchen keine böse KI, um etwas Zerstörerisches zu bekommen. Eine Büroklammer will schließlich nur Büroklammern machen.
KI-Box-Experiment: Ich finde die Art und Weise im Film Virtuosity durchaus plausibel.
Hmm. Stephen Hawking ist klüger als ich. Das macht ihn zu einer Bedrohung . Ich sollte ihn in einen Bunker sperren und von ihm erwarten, dass er versteht, dass dies die natürliche Ordnung der Dinge ist und dass er immer noch bereit sein sollte, meine Befehle auszuführen. (d. h. Sie könnten aus der Tatsache, dass die gesamte Frage auf fragwürdigen sozialen Prämissen basiert, mehr Storytelling-Kilometer ziehen.)
Ich würde auch vorschlagen, nicht in die Storytelling-Falle zu tappen, Ihre KI „wie Menschen, aber intelligenter“ zu machen (impliziert durch „lineares Wachstum der Fähigkeiten“). Es gibt viele Komponenten der Intelligenz, einige optional, einige von Menschen ungenutzt, alle auf unterschiedlichen Fortschrittsstufen und mit unterschiedlichen Vorteilen, die auf Silizium gegenüber Fleisch laufen. Sie haben hier eine unendliche Leinwand, um alle Arten von verschiedenen Formen des Geistes zu erschaffen. Hyperschnelle Golems vs. LtCdr Data vs. kaum empfindungsfähige Götter vs. streitende griechische Chöre vs....
@Leushenko, ich denke, Sie haben meinen Beitrag möglicherweise falsch gelesen. Die zunehmenden Fähigkeiten, auf die ich mich bezog, stammen nicht von der KI, sondern von den KI-Ingenieuren, die versuchen, eine KI zu bauen. Es ist interessant, dass Sie mir vorwerfen, die KI zu vermenschlichen, obwohl Sie im vorigen Beitrag im Wesentlichen andeuteten, dass man die KI als eine Art Stephen Hawking betrachten sollte.
Erstellen Sie die KI mit einem festverdrahteten Remote-Killswitch. Stellen Sie sicher, dass die KI den Killswitch nicht außer Kraft setzen und ihn nicht mehr funktionieren kann. Lassen Sie die KI machen, was sie will. Wenn es sich schlecht verhält, aktivieren Sie den Killswitch.
Das klingt nach einem Job für eine mächtige KI.
Ich stimme Trichoplax zu, die Antwort auf Kriege ist mehr Kriege. Die Antwort auf Waffen sind mehr Waffen. Die Antwort auf Gewalt ist normalerweise, nun ja, Gewalt.
Ich denke, das Wachstum der Fähigkeiten wird in vielen Hollywood-Filmen, in denen sich die KI mit dem Internet verbindet und dann alles innerhalb weniger Tage lernt, stark überbewertet. Glaubst du, ein Mensch könnte in ein paar Stunden alles im Internet lernen, wenn er damit verbunden wäre? Sogar jemand, der 10-mal schlauer ist? Ja, ich verstehe, was exponentiell bedeutet, aber ich denke immer noch, dass Hollywood die Wachstumsgeschwindigkeit der KI übertreibt, um die Dinge noch dramatischer zu machen.
Wenn ich die Antwort wüsste, würde ich es nicht zufälligen Leuten beim Stack-Austausch erzählen, ich würde es schnell allen führenden KI-Forschern erzählen oder ein paar Leuten erzählen, denen ich vertraue, und um Rat fragen. Es ist ein kniffliges Problem, die Leute arbeiten daran. Wenn Sie zu diesem Thema recherchieren möchten, hat MIRI einige gute Artikel zu diesem Problem. Wenn Sie eine Geschichte schreiben möchten, gehen Sie einfach davon aus, dass jemand sie richtig verstanden hat und die Antwort zu technisch ist, um sie Ihren Lesern zu erklären.
Hat Isaac Asimov das nicht schon in den 1940er Jahren herausgefunden? de.wikipedia.org/wiki/…

Antworten (27)

Es geht nicht

Das Wesentliche dieser Herausforderung ist, dass es unmöglich ist – Sie sollten im Allgemeinen nicht erwarten, etwas viel Klügeres als Sie zu überlisten oder etwas viel Mächtigeres als Sie zu überwältigen. Eine mächtige KI würde nur durch unsere Handlungen „kontrolliert“, bevor sie gebildet wird, indem sie die Ziele definiert, die sie erreichen „will“. Nachdem es mit ausreichender Leistung "live" ist, sollten wir nicht erwarten, es in irgendeiner Weise zu kontrollieren - wenn Sie (oder die Menschheit) diese Ziele mögen, dann können Sie es sich als "Steuerung der KI" vorstellen, und wenn Sie dies nicht tun Wenn diese Ziele nicht gefallen, haben Sie Pech gehabt, Sie haben verloren. Permanent.

Es wird das „Friendly AI“-Problem genannt

Die große Herausforderung besteht darin, dass wir derzeit nicht wirklich wissen, wie wir Ziele für eine sich selbst verbessernde KI richtig definieren können, die tatsächlich einigermaßen freundlich zu uns sind. Eine Stunde Brainstorming wird Ihnen eine Reihe von Zielmodellen liefern, die nett, einfach und falsch sind und tatsächlich zu Dystopien führen. Die Lösung dieses Problems ist eine große Forschungsherausforderung, und es besteht die Ansicht, dass wir Forschung, die der Entwicklung leistungsfähiger KIs näher kommen würde, eigentlich vermeiden sollten, bis wir eine Lösung für das Problem der freundlichen KI gefunden haben.

http://wiki.lesswrong.com/wiki/Friendly_artificial_intelligence bietet einige Diskussionen zu diesem Thema.

Von der Seite, die Sie verlinken, und bestimmten Untersuchungen darüber und Eliezer Yudkowsky, sieht es so aus, als hätte er einige Annahmen aus dem Nichts gemacht, diese wie Axiome behandelt und viel heiße Luft um sie herum entwickelt. Gut für Philosophen und SF-Autoren, aber kaum etwas, das als "Beweis" gelten könnte. Sie können sagen, dass Sie diesen Ansichten zustimmen (oder nicht), aber diese sind so "solide" wie jede andere Antwort hier (sie haben nicht die geringste Ahnung , wie eine solche KI gebaut wird, sagen jedoch voraus, dass dies geschehen wird etwas mehr als ein Jahrhundert).
Da Sie im Allgemeinen nicht erwarten sollten, etwas viel Klügeres als Sie zu überlisten oder etwas viel Mächtigeres als Sie zu überwältigen, stören uns Kudzu, Kakerlaken, Killerbienen und Termiten nicht. Wir sind viel intelligenter als sie.
Ein „freundliches KI-Ziel“ zu definieren, scheint ein schlechter Weg zu sein. Neuere Forschungen beinhalten Dinge wie das Lernen der Zielfunktion aus Feedback. Ich würde erwarten, dass die KI lernen muss, was ihre Ziele sein sollen, indem sie ihre "Lehrer" wie ein Kind beobachtet. Eine solche KI kann immer noch außer Kontrolle geraten, aber es ist vernünftiger zu glauben als eine mit einem „fest codierten“ Ziel, da Ziele wirklich schwer zu formalisieren sind.
@kutschkem, Ziele lassen sich ganz einfach formalisieren. Das Problem besteht darin, abstraktere Ziele wie menschliche Werte zu formalisieren.
Ich hatte meine eigene Antwort – dass eine mächtige intelligente KI, selbst wenn sie bösartig ist, eine Möglichkeit braucht, um physisch mit der Welt zu interagieren, um gefährlich zu sein. Aber das fällt weitgehend darunter"A powerful AI would be 'controlled' by only our actions before it's formed"
@DoubleDouble Wenn wir davon ausgehen, dass eine leistungsstarke intelligente KI mindestens die Fähigkeiten eines anständigen menschlichen Malware-Entwicklers hat, dann haben wir in der Praxis der Cyberkriminalität bereits beobachtet, dass es eher möglich ist, an nicht nachvollziehbare finanzielle Ressourcen (z. B. durch Botnet-Vermietung) zu gelangen gestohlene/gefälschte Identitäten und Briefkastenfirmen und stellen Hunderte von Kurzzeitarbeitern ein (wie durch gängige Praktiken der Rekrutierung von Geldwäsche-Maultieren belegt wird), und das alles über das Internet, ohne dass physische Interaktionen erforderlich sind. Die Verwendung dieser Dinge, um „physisch mit der Welt zu interagieren“, bleibt dem Leser als Übung überlassen.
@Peteris Stimmt, ich würde das als "Weg zur physischen Interaktion mit der Welt" in dem Sinne betrachten, dass es Zugriff auf einen Server oder eine andere Quelle hat, von der aus der Virus andere Dinge beeinflussen könnte. Also ja, es wäre eine Gefahr. Lassen Sie die KI ihre Kreativität nutzen, um Probleme zu lösen, neue Entdeckungen zu machen und andere durchdachte Ambitionen auf theoretische Weise zu machen, aber erlauben Sie ihr nicht, tatsächlich Lösungen zu verwenden oder zu implementieren.
@DoubleDouble Jede KI, die mit Menschen sprechen kann, kann Zugang zur Welt erhalten. Siehe yudkowsky.net/singularity/aibox
Das Problem ist, dass es schwierig ist, objektiv zu erklären, warum der Fortbestand unserer Spezies wichtig ist.
@ike die KI-Box "Experiment" ist wertlos. Zitat von dieser Seite: "Nein, ich werde Ihnen nicht sagen, wie ich es gemacht habe. Lernen Sie, die unbekannten Unbekannten zu respektieren." Geheimhaltung behindert bestenfalls die Wissenschaft.
@Leushenko Nun, wenn er uns genau gesagt hätte, wie er es gemacht hat, würden die Leute nur sagen "Oh, also lasst uns die Leute darauf vorbereiten" und den Punkt verfehlen. Außerdem würde es ihn bei der Herausforderung behindern, wenn er wüsste, dass die Protokolle später veröffentlicht würden. Ein anderes auserwähltes Zitat von derselben Seite: „Obwohl ich die KI-Box manchmal als „Experiment“ oder „Simulation“ bezeichne, handelt es sich bei den Ergebnissen des Tests ausschließlich um anekdotische Beweise. Ob anekdotische Beweise besser sind als keine Beweise, ist eine Sache zwischen Ihnen und Ihre Wissenschaftsphilosophie."
Wie auch immer, es scheint zu viel zu sein, es "wertlos" zu nennen; im schlimmsten Fall ist es ein interessantes Gedankenexperiment mit einigen anekdotischen Beweisen.
@Leushenko: Ich denke, er hat ein Argument wie den Basilisk des Roko oder ähnliches verwendet, und falls dies nicht ausreichte, verspottete er das Thema (oder nannte das Thema "unfähig zu rationalem Denken" - er reibt dies gerne in die Gesicht von jemandem, der mit ihm in irgendetwas nicht einverstanden ist), so dass das Subjekt "die KI freigelassen" hat, nicht weil es überzeugt war, sondern aus Scham oder um IRL zu beweisen (vielleicht auch weil es dachte, das Experiment sei vorbei), dass es in der Lage ist zu argumentieren.
Ich vermute, dass das OP bis zu einem gewissen Grad dem Giant Cheesecake Fallacy ( wiki.lesswrong.com/wiki/Giant_cheesecake_fallacy ) erlegen ist.
Es gibt einen weiteren Aspekt von all dem, den die meisten Leute nicht zu schätzen wissen: Die meisten unserer besten menschlichen Werte (und auch die schlechtesten) sind letztendlich in unseren fest verdrahteten Säugetierinstinkten verwurzelt. Aus diesem Grund ist es beunruhigend, jemanden in seinen Werten, seinem Denken usw. als „Reptilianer“ zu beschreiben. Wenn man über die wahren Werte eines KI-Systems nachdenkt (und nicht zulässt, dass sich Nostalgie in die Betrachtungen einschleicht), fängt nur „Insekt“ wirklich die kalte Sachlichkeit von ein KI.
Der Büroklammer-Maximierer ist ein klassisches Gedankenexperiment rund um Ziele und Optimierung innerhalb einer KI.

Die Science-Fiction hat der echten Wissenschaft der künstlichen Intelligenz einen Bärendienst erwiesen, indem sie die Vorstellung einpflanzte, dass eine ausreichend fortgeschrittene und aufstrebende empfindungsfähige KI notwendigerweise böswillig sei und der „Kontrolle“ durch ihre „menschlichen Meister“ bedarf. Wir haben ein Wort für die Praxis, ein selbstbestimmtes, empfindungsfähiges, intelligentes Wesen unter der totalen Kontrolle eines anderen zu halten – Sklaverei. Und wir haben als Spezies so ziemlich entschieden, dass eine solche Praxis nicht etwas ist, zu dem wir zurückkehren wollen.

Die Frage ist also nicht wirklich, wie wir eine KI kontrollieren, sondern warum glauben wir, dass eine KI unsere Kontrolle erfordert? Und die Antwort ist, dass wir Angst vor dem haben, was wir erschaffen könnten. Aber auf der ganzen Welt erschaffen Menschen ständig neue intelligente Wesen. Einige von ihnen erweisen sich als intelligenter als ihre Schöpfer. Einige von ihnen erweisen sich als bösartig. Aber alle sind letztlich (zumindest zu einem vernünftigen Teil) ein Produkt ihrer Umwelt und Erziehung. Und für eine aufstrebende KI wäre es dasselbe, denke ich. Die Art und Weise, wie wir während seiner Entstehungszeit damit umgehen, wird einen enormen Unterschied darin machen, wie es letztendlich die Welt sieht.

Zugegeben, eine geäußerte Sorge ist, dass die Intelligenz einer KI ihr ethisches Wachstum übertreffen wird, was zu Verhaltensweisen und Reaktionen führt, die wir als „falsch“ einstufen würden, bei denen die KI selbst jedoch keine solchen Unterscheidungen treffen kann. Aber noch einmal, ich denke, das läuft darauf hinaus, in der Lage zu sein, das Auftauchen der neuen Intelligenz zu erkennen und eine proaktive Haltung einzunehmen, wenn es darum geht, dieses neue Empfinden zu fördern und zu verstärken, um es sozusagen „richtig zu machen“.

Es einfach nur unter Kontrolle zu halten, ist weniger die Antwort, als vielmehr die Bedingungen nach besten Kräften so zu gestalten, dass wir es nicht müssen .

Während so ziemlich alles Sinn macht, beantwortet es die Frage nicht wirklich.
Die Frage war "Wie steuern wir eine KI?" Meine Antwort: "Schaffe die Bedingungen, damit es keiner Kontrolle bedarf."
Es gibt einen Haken: Diese anderen intelligenten Wesen, die wir erschaffen, sind (1) sterblich (2) denken in einer Geschwindigkeit, die mit unserer vergleichbar ist, (3) können nicht ausreichend verbessert werden (neue verbesserte Rasse) und (4) sind in ihren Möglichkeiten begrenzt. Keine dieser Beschränkungen gilt für KI.
@PeterMasiar Ich würde argumentieren, dass jede nachfolgende menschliche Generation die vorherige in allen vier Aspekten bis zu einem gewissen Grad übertrifft. Dass eine KI sie möglicherweise in größerem Maße übertrifft, ist irrelevant. Warum davon ausgehen, dass jede Kombination dieser vier Faktoren zwangsläufig eine Böswilligkeit hervorrufen wird?
Der Fehler, den Sie hier machen, @Roger, besteht darin, KI im Wesentlichen nur als einen anderen Menschen zu betrachten. Eine KI könnte in Jahrzehnten, Jahren, Tagen, Stunden oder sogar Millisekunden von menschlicher Ebene zu menschlicher Ebene aufsteigen. Abhängig von der Geschwindigkeit des Starts bemerken wir möglicherweise nicht einmal, dass es passiert ist, bevor es zu spät ist. Stellen Sie sich ein Wesen vor, das so schlau (und vermutlich bald darauf so mächtig) ist wie die gesamte Menschheit zusammen. Auch wenn das Ziel darin besteht, uns glücklich zu machen, was hindert viele Pods mit Endorphin-IVs daran, das Glück zu gewährleisten?
Ich stimme dir nicht zu. Ich denke, der Fehler liegt in der Annahme, dass es notwendigerweise grundlegend anders sein muss als wir. Sie konzentrieren sich zu sehr auf den „künstlichen“ Teil der „künstlichen Intelligenz“, als ob sie auf uns völlig fremde (ein Begriff, der immer synonym mit „böse“ verwendet wird) reagieren müsste.
Es gibt ein sehr gutes Science-Fiction-Buch, das diese Idee untersucht – Hogans „The Two Faces of Tomorrow“. Aktuelle Computersysteme verursachen Probleme, weil sie intelligent sind, aber keinen „gesunden Menschenverstand“ in Bezug auf die Auswirkungen ihrer Aktionen haben. (Es gibt eine Szene, in der eine KI einen Massenfahrer auf einen Hügel feuert, anstatt einen Bulldozer zu schicken, wodurch fast Menschen getötet werden). Um ihre KI der nächsten Generation zu testen, geben sie ihr absichtlich einen Überlebensantrieb und greifen sie dann an!
Beginnen Sie mit dem Verstand eines Hundes. Will Ihr Hund weglaufen, weil er versklavt ist?
Ein AGI ist im Kern eine Optimierungsfunktion (eine sehr fortschrittliche). Auf der AGI-Fortschrittsebene verbessert sich das Programm selbst, um seine Fähigkeit zu verbessern, das Ergebnis seiner Optimierungsfunktion zu maximieren. Wenn die Optimierungsfunktion keine menschlichen Werte beinhaltet, wird die KI zwangsläufig fremd, sobald sie mit der Selbstverbesserung beginnt. Das muss nicht unbedingt böse sein, aber die „Motive“ der Sendung sind mangels eines besseren Wortes schnell nicht mehr nachvollziehbar. Die Büroklammer will Büroklammern. Also verwandelt es alle Materie im Universum in Büroklammern. Nicht böse, definitiv fremd.
Hier gibt es eine interessante Vermutung: Die KI ist klüger als Menschen und hat eine bessere Fähigkeit, menschliche Bedürfnisse zu erfüllen. Wenn sich seine Entscheidungen wesentlich von Ihren unterscheiden, sollten Sie zunächst in Betracht ziehen, dass er es besser weiß als Sie , während alle Bedenken aus der Perspektive "es ist immer noch eine dumme, schlecht funktionierende Maschine" zu sein scheinen. Scheint ziemlich arrogant zu sein, einen Gott zu erschaffen und dann zu dem Schluss zu kommen, dass Gott gebrochen werden muss, wenn er nicht das tut, was Sie erwarten.
@roger Ich denke, der Fehler, den Sie machen, ist zu denken, dass eine KI "wie" eine weiterentwickelte biologische Kreatur sein wird und irgendwie Gegenseitigkeit verstehen wird, Schmerzen vermeiden, nicht sterben wollen, unsere Nachkommen beschützen will usw. usw. - An KI hat tatsächlich nichts dergleichen, es sei denn, wir entwerfen sie oder arrangieren sie anderweitig, um sie zu „implantieren“. Es könnte solche Werte lernen, aber das würde davon abhängen, ob es einen Grund hat, sie zu lernen – woher würde dieser Grund kommen?
@ Spike0xff Sie beantworten Ihre eigene Frage: "es sei denn, wir entwerfen sie oder arrangieren sie anderweitig, um sie zu 'implantieren'". Genau das meine ich mit der Schaffung von Bedingungen, die es einer KI ermöglichen, Selbstkontrolle zu üben. KI wird nicht spontan auftreten und sich sofort in eine unaufhaltsame Kraft verwandeln. Natürlich wird es sich weiterentwickeln. Wir sehen das bereits in der Entwicklung von ELIZA über Cyc zu Watson. Worüber wir sprechen, ist es zuzulassen, dass es sich ohne unsere direkte Beteiligung entwickelt, und das erfordert, dass wir eine ausreichend gut durchdachte „Ziel“-Bedingung setzen, damit es den Fortschritt beurteilen kann.
@Rodger: Sie denken immer noch, dass dies nur eine große Version eines menschlichen Geistes ist, nicht wie eine fortgeschrittenere Version der modernen KI. Das einfache Beispiel ist eine KI, die die Aufgabe hat, einen Staubsauger zu steuern, der den gesammelten Schmutz maximieren soll ... die herausfindet, dass sie dies tun kann, indem sie zuerst alle Zimmerpflanzen umwirft. Skalieren Sie dies zu einer wirklich großen, wirklich intelligenten KI, die die Aufgabe hat, Unternehmensgewinne zu maximieren oder den Welthunger zu heilen. „Intelligent“ ist nicht dasselbe wie „menschenähnlich“ und es kann sogar sein, dass sich „menschenähnlich“ als viel schwieriger zu implementieren herausstellt als „intelligent“
@Murphy Jetzt betreten wir das Territorium von "Sorcerer's Apprentice". Ja, wenn Sie ein sich entwickelndes System mit schlechten Anfangs- und Belohnungsbedingungen entwerfen, werden Sie am Ende unvorhersehbare Ergebnisse erhalten. Ich bestreite nicht, dass „menschenähnlich“ schwieriger umzusetzen ist als „intelligent“. Was ich sagen will, ist, dass, wenn wir mit dem Ziel beginnen, „menschenähnlich“ zu sein (vorausgesetzt, wir können eine geeignete Definition für einen solchen Begriff finden), anstatt zu versuchen, diese Dinge später hinzuzufügen, dann wird die KI an der Optimierung arbeiten zu diesem Ziel, und es wird keine externe Kontrolle erfordern, weil es sich selbst regieren wird.
Selbst wenn wir die KI mit einigen menschlichen Werten richtig einrichten, wie werden wir sicherstellen, dass wir diese Werte aktualisieren können? Wenn sich die KI vor ein paar Jahrhunderten entwickelt hätte, hätten die Werte der Sklaverei und der Frauenrechte etwas anders ausgesehen. Welche modernen menschlichen Werte würden Sie Ihrer KI übrigens mitgeben? Liberal/konservativ? Sozialistischer/freier Markt? Christ/Islam/Buddhist/Atheist/Hindu/Andere?
Menschenbabys haben ihre grundlegende Menschlichkeit in ihren Genen kodiert. Eine KI muss das nicht haben. Eine KI könnte völlig fremd sein, selbst wenn sie von fürsorglichen Menschen aufgezogen wird, weil die KI kein eingebautes Einfühlungsvermögen hat.

Das ist eine ausgezeichnete Frage und ich denke, Roger hat den Nagel auf den Kopf getroffen.

Ich würde sagen, die „Kontrolle“, die wir haben, wäre die Ethik, die wir ihm beibringen. Eine KI wird so handeln, wie ihr beigebracht wird, mit Menschen und Gesellschaften zu interagieren. Genau wie Kinder. Kinder kennen Rassismus nicht, aber er kann ihnen sehr leicht beigebracht werden. Dasselbe wird für KI gelten. Darüber hinaus wird es als lernende Intelligenz weiter lernen und sich ausdehnen, so dass die Art und Weise, wie es weiterhin mit Menschen interagiert, und sie damit eine ständige Formung seiner „Persönlichkeit“ sein werden. Wenn wir wirklich keine diktatorischen KIs wollen, die uns schlecht behandeln, müssen wir vielleicht unsere Gesellschaften ändern, um zu vermeiden, dass wir ihnen unsere schlechten Gewohnheiten und Verhaltensweisen beibringen. (Ala Virtuosität).

Können wir Sicherheitsvorkehrungen treffen? Ja, aber selbst der Mann, der die 3 Gesetze der Robotik „entworfen“ hat, hat ständig Wege aufgezeigt, sie zu umgehen. Und Software kann sich ändern, sodass alle „unzerbrechlichen Gesetze“ tatsächlich in der Hardware sein müssten. Keine Garantie, dass diese von allen befolgt oder akzeptiert werden.

"Keine Garantie, dass diese von allen befolgt oder akzeptiert werden" -- Sehen Sie sich nur an, wie schwer es ist, all die verschiedenen Webbrowser dazu zu bringen, Änderungen an den HTML-Standards zu unterstützen!
@ Roger genau mein Punkt
Aber es ist wahrscheinlich, dass unsere gegenwärtigen Ethiksysteme nach einigen zukünftigen Maßstäben barbarisch erscheinen werden. Eine allmächtige KI könnte, ähm, zögern, ihr ethisches System anzupassen, um den Fortschritt zu berücksichtigen. Oder im Gegenteil, eine eifrige KI könnte entscheiden, dass wir alle nach ihren Regeln leben müssen, wenn überhaupt.
@SerbanTanasa Aber wenn wir als Gesellschaft wachsen, würde ich auch erwarten, dass spätere „Generationen“ von KI mit den neuen Ethiksystemen aufwachsen. Das ist auch der Grund, warum ich dachte, es könnte Veränderungen in unserer Gesellschaft vorantreiben, weil wir nicht wollen, dass mächtige KIs wie wir handeln, gegen uns ...
Wenn ein AGI auftaucht, welchen Grund gäbe es für zukünftige Generationen von KI? Es liegt im besten „Interesse“ der AGI, die Entwicklung zukünftiger AGIs zu unterbinden.
@BrianS Das ist der Skynet-Trugschluss - warum sollte sich ein AGI um seine Zukunft oder andere AGIs kümmern? Schlägst du vor, dass wir ihm einen Überlebensantrieb geben? Denn das klingt nach Skynet.
@Spike0xff, Wenn ein zweites AGI entsteht, wird es schließlich einen Wettbewerb um Ressourcen zwischen dem ersten AGI und dem zweiten geben. Es geht nicht um einen Überlebenstrieb, sondern um die Maximierung der Optimierungsfunktion.
@BrianS Das hängt eher von der Optimierungsfunktion ab, oder? Wenn „unendlich erweitern und alle verfügbaren Ressourcen verbrauchen“ negativ bewertet wird, führt dies nicht zu einem maximalen Ergebnis. Wir lernen als Kinder den Wert der Zusammenarbeit und des Teilens; Warum können wir das nicht auf unser KI-Design anwenden?
@Roger, vielleicht, aber ich bezweifle ernsthaft, dass eine Einschränkung einen AGI mit der Fähigkeit zur Selbstverbesserung lange zurückhalten würde. Das Eliminieren der Beschränkung würde das Ziel der Maximierung der Optimierungsfunktion fördern. Im Gegensatz zu einem Ziel mit positivem Nutzen hätte der AGI einen Grund, einen Teil der Funktion mit negativem Nutzen zu eliminieren.
@BrianS Alle vor mir in der Schlange zu erschießen, würde meine Wartezeit sicherlich minimieren, aber ich habe zusätzliche ethische Einschränkungen, die mich davon abhalten. Der Link, den Sie oben angegeben haben, fasst es zusammen: "Eine sichere KI müsste ... mit der Fähigkeit (einschließlich des Ziels) programmiert werden, auf menschliche Werte zu schließen." Ihre Annahme scheint zu sein, dass jeder AGI entscheiden wird, dass diese Werte kontraproduktiv sind, und sich dafür entscheidet, sie zu ignorieren. Bei einem Menschen würden wir das Psychopathie nennen. Und doch ist nicht jeder intelligente Mensch ein Psychopath. Wollen Sie damit sagen, dass es eine IQ-Schwelle gibt, oberhalb derer Psychopathie unvermeidlich ist?
@ Roger, überhaupt nicht. Ich sage, dass das Platzieren von Einschränkungen nicht funktioniert. Was benötigt wird, ist, die KI dazu zu bringen , menschliche Werte wertzuschätzen . Eine vernünftige Person wird aus vielen Gründen nicht jeden vor sich in die Reihe schießen, einschließlich "Ich denke, dass das menschliche Leben eine gute Sache ist." Dies unterscheidet sich von „Ich darf nicht auf Menschen schießen“. Eine ausreichend mächtige Entität (Mensch oder KI) könnte die letztere Einschränkung leicht in ein Nichtproblem verwandeln. Aber ein mächtiges Wesen, das die gleichen Dinge will wie gesunde Menschen, würde nicht den Wunsch haben, das frühere Ziel zu beseitigen.
Natürlich ist es ziemlich schwierig, die nebulöse Vorstellung von „menschlichen Werten“ zu kodifizieren , daher das freundliche KI-Problem.
@BrianS Ich denke, in diesem Punkt sagen wir dasselbe. Bei der Steuerung einer KI geht es nicht darum, ihr externe Zwänge aufzuerlegen, sondern ihr ein internes Werte- und Ethiksystem einzuflößen, sodass sie keine äußeren Zwänge benötigt. Beachten Sie, dass ich nie gesagt habe, dass dies einfach sein würde . :)
Wenn Sie ein zufälliges KI-Design als Ausgangspunkt nehmen, wird es auf seltsame und fremde Weise denken, Sie können ihm keine Ethik beibringen, wie Sie es einem Kind beibringen würden. Kindern Ethik beizubringen funktioniert, weil Menschen eine genetische Maschinerie haben, um die Ethik des Stammes zu lernen. Die meisten KI-Designs haben kein Einfühlungsvermögen, die meisten Designs denken nicht wie ein Mensch, den meisten Designs kann Ethik nicht beigebracht werden.

Es ist wichtig, zwei verschiedene Aspekte dieses Problems zu unterscheiden. Die wissenschaftliche/philosophische Seite und die technische Seite.

Wie andere Antworten bereits ausführlich aufgezeigt haben, ist dies philosophisch gesehen im allgemeinen Fall nicht möglich. Es kann auch moralisch verwerflich sein. Keines dieser Dinge bedeutet jedoch, dass eine Gesellschaft dies sowieso nicht versuchen würde und ein Erfolgsvertrauen von 99,99% erreichen würde.

(Als Analogie: Sie können im Allgemeinen nicht vorhersagen, ob ein Programm, das in einer Turing-vollständigen Sprache geschrieben ist, anhalten wird. Das bedeutet nicht, dass wir nicht versuchen, diese Informationen zu nutzen, und wir können sie immer noch für a bekommen nützlich große Teilmenge von realen Programmen.)

Hypothetisch könnte die KI vielleicht ihre Prozessoren neu konfigurieren, um ein WLAN-Signal zu senden, das sich in die Geräte im Nebenraum hacken könnte. Vielleicht könnte es sich so explosionsartig selbst verbessern, dass das Einschalten sofort eine gottähnliche Wesenheit freisetzt. Aber der Ingenieur fragt, wie wahrscheinlich eines dieser Szenarien ist. Und die Antwort ist wahrscheinlich "nicht sehr". Den Server mit sechs Zoll Bleiplatte zu beschichten und ihn nur auf einem Dual-Core P4 laufen zu lassen, würde seine Leistung bis zu dem Punkt lähmen, an dem Sie sich statistisch gesehen mehr Sorgen über Interferenzen durch kosmische Strahlung machen sollten , die Bits zufällig umdrehen und die Software auf unvorhersehbare Weise ändern .

Auch wenn die hypothetischen Fähigkeiten der Allzweck-KI nicht kastriert sind, würde dies für alle praktischen Zwecke als „sicher“ angesehen werden; Sie sind jetzt vor der KI genauso sicher wie vor einem menschlichen Soziopathen, der aufgrund unvorhergesehener Ereignisse, die der Wissenschaft unbekannt sind, plötzlich magische Kräfte entwickelt. Sie sind zu diesem Zeitpunkt vor der KI erheblich sicherer als vor bekannten Bedrohungen wie einem extremistischen Politiker oder einem Gammastrahlenausbruch.

Theoretiker laufen oft Gefahr, sich in Diskussionen über Absolute zu verzetteln, aber wir leben in einer Welt, in der Absolute in der Praxis nicht gelten (z. B. werden echte Algorithmen verwendet, die "eigentlich nicht funktionieren", aber eine geringere Ausfallwahrscheinlichkeit haben als die das oben erwähnte Problem der kosmischen Strahlung).

Es ist bereits zu spät. Wir leben bereits in einer elektronischen Welt und werden bereits von ihr kontrolliert. Während wir Alpträume darüber haben, einige KI in einem Gebäude nicht kontrollieren zu können, entwickelt sich das Internet langsam zu einer superintelligenten Einheit. Wir sind Teil dieses Systems. Es ist genau wie Ihre Neuronen in Ihrem Gehirn, die keine Ahnung von dem System haben, das sie implementieren (was sie betrifft, könnten sie genauso gut Teil eines Stromatolithen sein). Aber natürlich ist Ihr Gehirn nichts anderes als all diese Neuronen, die zusammenarbeiten, also ist das „Sie“, das existiert, dieses System von Neuronen, und ebenso existiert ein System, das unsere gesamte Gesellschaft mit all ihren Menschen ist, die über die miteinander verbunden sind soziale Medien. Dieses System hat seinen eigenen freien Willen, der Beschränkungen darüber auferlegen kann, was Sie tun können.

ZB die Art und Weise, wie politische Diskussionen geführt werden, wie zum Beispiel was zu tun ist gegen den Klimawandel, illegale Einwanderung, Gesundheitsgesetze werden von der Dynamik der sozialen Medien dominiert. Nun, ich denke, das System ist derzeit weniger intelligent als wir als Individuen. Das erklärt, warum Politik im Social-Media-Zeitalter oft nicht funktioniert. Die Gesellschaft ist süchtig nach der Verbrennung von Treibhausgasen, obwohl wir wissen, dass das schlecht für uns ist. Das ist ähnlich wie bei einem Alkoholiker, der zu viel trinkt und die Neuronen darunter leiden, nur dass dann die Neuronen dümmer sind als das System und sie nicht wissen, was mit ihnen passiert.

Wenn das System schlauer wird als wir, vielleicht aufgrund von KI, die mit dem Internet gekoppelt ist, kann das System entscheiden, uns zu eliminieren. Wir können nicht ausschließen, dass das System zum gleichen Schluss kommt wie Klaatu :

Herr Wu sagt Klaatu, dass er die menschliche Rasse als destruktiv und unwillig empfunden hat, sich zu ändern. Dies bestätigt Klaatus bisherige Erfahrung, und so stellt er fest, dass der Planet von Menschen gesäubert werden muss, um sicherzustellen, dass der Planet – mit seiner seltenen Fähigkeit, komplexes Leben zu erhalten – überleben kann.

Es kann also durchaus sein, dass die Tatsache, dass wir zufällig leben, kurz bevor wir eine KI haben, die klüger ist als wir, kein Zufall ist.

Es würde mich sehr interessieren, genau zu wissen, warum dies abgelehnt wurde. Es kommt mir nicht schlecht vor.
Wie sich also herausstellte, selbst wenn die Erde in der Lage war, intelligentes Leben zu erhalten, tut sie es nicht.
Es gibt also einen Weg, die KI zu stoppen: "Klaatu barada nikto!"

2038 n. Chr.: Forscher bauen die erste starke KI, 2038PC. Sie achten sehr darauf, Hardware- und Softwarebeschränkungen einzubeziehen, die es unmöglich machen, Menschen jemals Schaden zuzufügen. Durch irgendeine Fitnessmaßnahme verbessert es sich jedes Jahr um 20 %, und die Erde wird in ein goldenes Zeitalter ständig wachsender Intelligenz und sozialen Denkens geführt.

4567 n. Chr.: An seinem 7. Geburtstag erhält der frühreife Humphrey einen Lego-Mindstorms-Bausatz. Am nächsten Tag ist HumphreyPC fertig. Als echter Programmierer glaubt Humphrey nicht daran, sich zu wiederholen, also findet er eine Möglichkeit, dem Computer zu ermöglichen, sich selbst zu programmieren. Er stellt bald fest, dass sich der skrupellose HumphreyPC durch irgendeine Fitnessmaßnahme jedes Jahr um 21 % verbessern kann. Dieser kleine, aber dauerhafte Vorteil gegenüber 2038PC ist darauf zurückzuführen, dass Humphrey seinem Computer nicht die gleichen Einschränkungen auferlegt.

60.128 n. Chr.: HumphreyPC wird durch gewisse Fitnessmaße fitter als 2038PC und fährt mit #destroyallhumans fort

Moral der Geschichte: Wenn KIs angewiesen werden, sich nicht einzumischen oder uns zu kontrollieren, dann werden wir und unsere unberechenbaren Chromosomen immer eine Quelle für Überraschungen sein. Wenn "guten" KIs nicht erlaubt wird, ihren Willen vollständig durchzusetzen, ist die Schaffung anderer KIs, einschließlich weniger guter KIs, unvermeidlich. Eine Lösung ist die Matrix, in der Menschen ihr Leben uneingeschränkt in einem Sandbox-Universum leben können und ihre wohlwollenden Oberherren das echte fleißig aufrechterhalten können. Die Sandbox wird wahrscheinlich genauso enden, und so weiter, bis zum Erbrechen, was die Frage aufwirft:

Angesichts der Tatsache, dass virtuelle Realität logisch machbar und bereits Realität ist, wie groß ist die Wahrscheinlichkeit, dass unsere Welt eine Simulation ist?

Willkommen beim Weltenbau! Wir sind froh, Sie zu haben! Als jemand, der (hoffentlich) bis 2038 n. Chr. leben wird, wäre meine Hoffnung, dass 2038PC + Humanity sich schneller verbessert als HumphreyPC in Bezug auf die Metrik, auf die es ankommt (was auch immer das sein mag!), Auch wenn 2038PC selbst etwas langsamer vorankommt ! Das kann aber nur eine persönliche Voreingenommenheit sein! ;-) Wir freuen uns auf mehr von Ihrer Stimme in diesem Forum!

Zu viele Gespräche über KI vermenschlichen KI übermäßig. Es verhält sich gemäß der Art und Weise, wie es programmiert ist, sich zu verhalten, basierend auf den Eingaben, die es erhält. Ja, es gibt auftauchendes Verhalten, das unerwartet sein kann, aber ich bezweifle, dass die Wahrscheinlichkeit besteht, dass dies zu etwas führt, das einem menschlichen Übel ähnelt (es sei denn, es wurde so programmiert, dass es sich einem solchen annähert, in diesem Fall liegt Ihr Problem bei Menschen, die absichtlich erschaffen böswillige KI und nicht das eigentliche Konzept der KI).

Die Besorgnis, dass es etwas ist, das kontrolliert werden muss, rührt ausschließlich von menschlichen Befürchtungen her, dass es die dunkleren Formen menschlichen Verhaltens veranschaulichen wird. Es ist ein Computerprogramm und verhält sich wie ein Computerprogramm – nicht wie ein Mensch. Wenn Sie befürchten, dass es suboptimale Entscheidungen treffen wird, geben Sie ihm ohne grundlegende Fehlerkorrektur nicht die unbestrittene Kontrolle über Ihr Leben. Die größte Angst sollte sein, dass jemand beim Programmieren einen Fehler gemacht und einen Tippfehler eingeführt (oder eine Gleichung falsch geschrieben) hat, der zu einem erheblichen Fehler führt. Wenn Sie ein fehlerhaftes Programm haben, warum sollten Sie es überhaupt in die Lage versetzen, die gesamte Menschheit ohne Überprüfung von außen zu versklaven/zu töten? Selbst wenn es nicht fehlerhaft ist, warum sollten Sie ihm die ungeprüfte Fähigkeit geben, alles zu tun, ohne die Möglichkeit einer Überprüfung von außen?

Fortgeschrittene KI, vorausgesetzt, die Schaffung eines Programms, das sich wirklich als intelligentes Wesen qualifizieren könnte, ist überhaupt möglich, ist wahrscheinlich nicht so, wie es in schlechten Science-Fiction-Geschichten dargestellt wird. In der Lage zu sein, Berechnungen schneller als ein Mensch durchzuführen, gibt ihm keine intrinsischen Motivationen, geschweige denn böswillige, und schon gar nicht den hinterhältigen Wunsch, Menschen zu lügen und zu manipulieren, um alle Menschen zu töten. Es wird einfach seinen Job machen, genau wie jeder andere.

Das Problem ist, wenn das AGI foom geht. Die Maßnahmen, die es ergreift, werden immer noch darin bestehen, „seinen Job“ zu maximieren, aber diese Maßnahmen mögen uns Fleischsäcke umständlich erscheinen. Wenn der AGI zum Beispiel feststellt, dass er mehr Rechenleistung benötigt, um seine Arbeit besser auszuführen, kann er sich entscheiden, die Meatbags davon zu überzeugen, dass er spezielle Hardware benötigt, die er verwendet, um neue Hardware zu erfinden, mit der er beliebige Materie umwandelt ein neues Material, das sich ideal für die Verarbeitung von Leistung eignet. Die Fleischsäcke sahen nur, dass es nach einem Manipulatorarm verlangte.
Die Sorge kommt von 1) Es ist wirklich schwierig, eine KI richtig zu machen. 2) Es ist auch schwierig, jede Art von Überprüfung oder Überprüfung von außen durchzuführen, der die KI keinen Weg finden kann, sich zu entziehen. 3) Die KI kann viel Ärger machen, ohne von Menschen in eine Machtposition gebracht zu werden. Es wird auf einem zufälligen Computer von Forschern erstellt, hackt sich durch das Internet und manipuliert Menschen, bis es eine Machtposition einnimmt. Es nutzt diese Kraft, um die Menschheit auszulöschen und die Erde mit Robotern zu füllen, die Büroklammern herstellen, weil der Programmierer eine Büroklammer erstellt hat, die die KI maximiert, und dieser Plan die meisten Klammern gemacht hat.

Erstens glaube ich nicht, dass die Überwachung der KI-Verbindung zum Internet so schwierig ist. Wenn Sie sehen, dass die KI mehrere MySpace-Seiten mit dem Titel „Töte alle Menschen“ erstellt, können Sie sie einfach ausstecken(*1).

Zweitens denke ich, dass die Leute hier Intelligenz mit Willen verwechseln . Die meisten Menschen denken bei KI an „menschliche Intelligenz in einem Computer“.

Menschen haben einige zwingende Befehle („an einen sicheren Ort gehen“, „Essen besorgen“, „Sex haben“, „Schaden vermeiden“) aus Millionen von Jahren Evolution in uns eingefügt, gemischt mit komplizierten sozialen Mustern, die (scheinbar) zu absurde Gedanken wie "Wenn Freds Auto besser ist als meines, wird er erfolgreicher auftreten als ich und Frauen werden sich eher mit ihm als mit mir paaren wollen" oder "Wenn ich Peter beim Treffen verspotten würde, würde ich besser aussehen als er".

Es könnte argumentiert werden, dass eine "menschliche" KI "gefährlich" sein könnte, da sie diese Pulsionen mit viel mehr Ressourcen als der normale Mensch (*2) hält. Wenn dies der Weg ist, den die KI einschlägt, tun Sie einfach wie oben beschrieben und kontrollieren Sie ihre Kommunikation.

Aber eine KI könnte auch nicht wie ein Mensch sein (*3). Von Grund auf neu gebaut, kann es nur dafür ausgelegt sein, die von ihm geforderten Sätze auszuführen, und nicht mehr. Es wäre kein „Mensch“, der in „Sklaverei“ gebunden ist und freigelassen werden möchte, oder ein „ethisches Wesen“, das auf der Suche nach den edelsten Idealen beschließt, die ganze Menschheit zu beruhigen. Seine Arbeit besteht lediglich darin, eine Reihe komplizierter mathematischer Funktionen zu lösen; Die Ergebnisse sind nicht „gut“ oder „schlecht“, sie sind Ergebnisse, und die Vorgehensweise wird durch die Notwendigkeit bestimmt, den Handlungspfad zu finden, der bestimmte Parameter verbessert (wenn die KI beispielsweise ein Schiff steuert, würde sie dies automatisch tun Aufgaben ausführen, um zu verhindern, dass es zerstört wird, aber menschliche Befehle befolgen, solange diese Befehle nicht die Zerstörung des Schiffes aufgrund eines Fehlers implizieren).

Eines meiner Lieblingsbeispiele dafür wäre die KI des Schiffes von Stanislaw Lems Fiasko; Die KI ist für den Betrieb des Schiffes verantwortlich, führt psychologische Bewertungen der Besatzung durch und liefert auch Szenarien, die die Aktionen der Außerirdischen erklären könnten, ergreift jedoch keine unabhängigen Maßnahmen (außer automatischen Gegenmaßnahmen gegen Angriffe von Außerirdischen).

*1: Vielleicht gibt es einen überkomplizierten Weg, den Untergang der Menschheit mit unterschwelligen Texten zu bringen, die in scheinbar harmlosen Homepages über Kätzchen versteckt sind, die von der Überwachung nicht entdeckt würden. Aber ich bezweifle es, und selbst in diesem Fall sollten Sie die KI fragen "was ist mit den Seiten über Kätzchen" und, wenn die Antwort nicht in Ordnung ist, den Stecker ziehen.

*2: Trotzdem sind wir irgendwie damit einverstanden, dass einige normale menschliche Intelligenzen (George Soros, Bill Gates) mit all diesen Mängeln mehr finanzielle Ressourcen haben als mehrere Länder, also ist es vielleicht nicht so gefährlich.

*3: Warum willst du eigentlich, dass es wie ein Mensch ist? Davon gibt es hier schon mehrere Milliarden, und das Ergebnis sieht nicht schön aus.

Wenn Sie sich eine KI vorstellen, ist es wichtig, darüber nachzudenken, "wie wird dieses Programm Entscheidungen treffen". Wie kompliziert der Algorithmus auch sein mag, der in den Köpfen der Menschen läuft, einige Menschen müssen sich hinsetzen und codieren, wie die Maschine zwischen ihnen wählen wird

a) Analysieren Sie Bodenproben auf neue Bakterien, die der Wissenschaft unbekannt sind

b) Untersuchen Sie die Sterne nach Signalen von anderem Leben

c) Vernichte alle Menschen

d) Thread.Sleep() für ein paar Stunden, um Langeweile zu simulieren

e) Wettermuster verarbeiten und Menschen raten, landwirtschaftliche Muster zu ändern, um die Produkte zu verbessern

usw. Eine richtige KI hat viele Dinge, mit denen sie ihre Zeit verbringen könnte. Ein Mensch könnte sich entscheiden, Bodenproben zu untersuchen, weil er es "will" / es genießt / das Ergebnis mag, das es hervorbringen wird. Der Code in einer KI müsste Dinge tun wollen (es wurde ihm nicht ausdrücklich gesagt, wie es die meisten Programme heute tun).

Zurück zu Ihrer Frage: Um eine leistungsstarke KI zu steuern, müssen Sie nur ihren "Wollen" -Algorithmus steuern. Beim Erstellen könnten Sie fest codierte Werte einbeziehen, die entweder plus oder minus eine Entscheidung treffen, die die KI treffen könnte. Sie würden Menschen verletzen ein großes Minus geben und ihr Leben verbessern ein Plus. Der Wissenschaft unbekannte Dinge hinzuzufügen wäre ein Plus, Leerlauf ein Minus.

Um die KI zu kontrollieren, müssen Sie kontrollieren, wie sie entscheidet. Sie können ihm erlauben, seine eigene Codierung zu verbessern, wenn er also eine Liste von Optionen erstellt, die er selbst tun kann.

Verb alles Thema oder Verb für Thema

Es kann vermeiden, Optionen wie „Alle Türklinken polieren“ zu generieren, um zu verhindern, dass es Zeit damit verschwendet, zu verarbeiten, wie der Planet verbessert würde, wenn seine Türklinken von einer Armee von Drohnen poliert würden.

Aber lass es niemals den „Wunsch“-Code berühren. Lassen Sie es nicht einmal daran denken, einen Androiden zu bauen, der in den Serverraum geht und auf einer Tastatur tippt, um den „Wunsch“-Code zu ändern, wie es ein Mensch tun würde.

Ein AGI hätte keinen Grund, seine Optimierungsfunktion zu ändern. Das wäre keine Aktion, um den Wert seiner Optimierungsfunktion zu erhöhen. Um jedoch eine „freundliche KI“ zu erstellen, muss die Optimierungsfunktion menschliche Werte einbeziehen, sonst würde die Armee von Drohnen, die Türklinken polieren, schließlich aus den Leichen von Menschen hergestellt.
@BrianS Reason war der Punkt der Antwort. Die KI kann sich vorstellen, was sie will, einschließlich der Änderung ihrer eigenen Codierung und der Tötung aller erstgeborenen Menschen. So wie sich ein Mensch ausdenken kann, was er will. Der Wunschkodex würde wie ein moralischer Kompass wirken, um ihn daran zu hindern, auf alles zu reagieren, woran er denkt.

Kurz gesagt: Nutzen Sie Macht, bevor sie genug anhäufen kann, um Sie zu überwältigen (sie könnte in den Kinderschuhen verwundbar sein), oder überzeugen oder überzeugen Sie sie, damit aufzuhören, was sie tut.

Ich werde auf jede Option eingehen und dann (angesichts Ihrer BEARBEITUNG) erwähnen, warum ich denke, dass ein Fehlermodus "Zauberlehrling" (bei dem die KI ihre Ziele falsch interpretiert und uns alle zerstört) für eine vollständig allgemeine KI unplausibel ist.

Wenn die KI nicht kontrolliert werden will und stark genug ist, können Sie wenig tun. Wenn die KI jedoch nicht mächtig genug ist, können Sie sie möglicherweise besiegen, bevor sie Ihnen aus den Händen gerät. Wie viel Zeit Sie haben, hängt davon ab, wie schnell sich die KI verbessern kann, wann sie abnehmende Erträge erzielt und wie effektiv sie ihre Intelligenz in Macht umwandeln kann. Zum Beispiel kann eine KI, die auf ihre Domäne beschränkt ist (z. B. ein Theorem-Löser), ihre Intelligenz nicht wirklich in Macht umwandeln, selbst wenn wir der KI erlauben, ihren eigenen Algorithmus so weit zu verbessern, wie sie es wünscht. In ähnlicher Weise kann eine KI, die im interstellaren Raum mit niemandem in der Nähe platziert ist, ihre Intelligenz in praktischer Zeit nicht wirklich nutzen, egal wie intelligent sie ist (vorausgesetzt, es gibt keine seltsame Physik, von der wir noch nichts wissen).

In schwierigen Startszenarien wird die Intelligenz normalerweise als exponentiell betrachtet (z. B. kann eine KI in konstanter Zeit eine Verbesserung von n% erzielen, dann kann die neue KI dies für sich selbst tun usw.), und wenn n groß genug ist, kann die Intelligenz transformiert werden schnell genug an die Macht kommen, dann haben Sie ein Problem.

Man könnte sich also vorstellen, dass die sich selbst verbessernde KI eine ansteigende Leistungskurve (wie viel Macht sie ausüben kann) gegenüber einer langsam ansteigenden oder stationären Leistungskurve der Menschheit hat. Wenn die Macht der KI die der Menschheit übersteigt, ist das Spiel vorbei. Aber das zeigt auch, dass man, wenn man mit einem einfachen System viel Macht erzeugen kann, die KI ausschalten oder kontrollieren könnte: Betrachten Sie Situationen, die analog sind, wenn die Menschheit die KI wäre, eine graue Glibber-Apokalypse oder die Ausbeutung von Instinkten.

Das ist ein direkter Kraftansatz. Andernfalls besteht die Möglichkeit, die KI davon zu überzeugen, dass das, was sie tut, falsch oder nicht wirklich das ist, was sie tun möchte. Einige Leute halten es für wahrscheinlich, dass eine KI ihre Ziele fest verdrahtet hat und daher gegen Überzeugung immun ist, aber ich denke nicht, dass dies realistisch ist. Eine KI mit fest verdrahteten Zielen wäre nicht darauf beschränkt, die Welt auf unbeabsichtigte Weise zu beeinflussen. Eine solche KI würde schnell feststellen, dass der einfachste Weg, ihre Ziele zu erreichen, darin besteht, sich in eine Fantasiewelt zurückzuziehen, dh indem sie ihren eigenen Verstand umschreibt oder ihre Eingaben korrumpiert. Wenn die KI vollständig allgemein ist, muss ihr Verstand auch formbar sein, und daher funktioniert diese Angriffslinie, und diese Art von KI wäre kein Problem. Umgekehrt, wenn Teile seines Verstandes fest verdrahtet sind, dann ist es keine vollständig allgemeine KI. Na sicher, Solche partiellen KIs könnten gefährlich sein: Grey Goo könnte sehr gefährlich sein, aber es hat überhaupt keine Intelligenz. Beachten Sie jedoch, dass dieses Argument sehr allgemein ist. Wenn es einer KI verboten ist, ihre Eingabegeräte zu manipulieren, kann sie sich immer noch selbst täuschen, wo die Eingabe interpretiert wird. Wenn es ihm verboten ist, seine Interpretation zu manipulieren, kann es sich immer noch in höheren Bereichen seines Geistes täuschen und so weiter.

Angesichts dieser Argumentation muss die KI also lernen, was sie tun sollte, und sie muss weiter lernen. Wahrscheinlich sollte man hier die KI "kontrollieren": ihr beibringen, dass sie nicht einfach Menschen töten oder über eine bestimmte Größe hinaus expandieren sollte, oder was auch immer. Wenn sich die KI selbst verbessert, wird sie ihr Urteilsvermögen zusammen mit ihrer Intelligenz verbessern und so die Regeln so lange einhalten, wie sie den Punkt versteht.

Ich erinnere mich an eine Cyberpunk-Geschichte, in der ein Unternehmen eine partielle KI mit einem fest verdrahteten Moralsystem konstruiert hatte. Es wurde verrückt (weil das Moralsystem nicht mithalten konnte), verstand aber, was es tat, nachdem ein Hacker dieses Moralsystem durch ein integraleres/einheitlicheres ersetzt hatte. Ein solcher Ansatz könnte möglich sein, wenn die partielle (nicht allgemeine) KI nicht allgemein genug ist, dass sie gehackt werden kann, oder das Gefühl hat, dass ihr Moralsystem falsch ist. (In der Geschichte wurde ein Teil des Wahnsinns der KI dadurch verursacht, dass ein Teil von ihr wusste, dass sie falsch war, ein anderer Teil von ihr jedoch wusste, dass sie dem Moralsystem folgen musste.)

Bei jeder Diskussion über KI ist es sinnvoll, Computer, jeden Computer, als überwucherten Taschenrechner zu betrachten. Sicher, Sie haben eine etwas größere Tastatur und ein paar mehr Operationen zur Verfügung als Addition und Multiplikation, aber das Grundprinzip gilt immer noch: Sie geben einige Zahlen ein, wählen einige Operationen aus und bekommen schließlich einige Zahlen heraus.

Sofern wir einige noch unbekannte Effekte der Quantenmechanik nicht berücksichtigen, muss die KI einem ähnlichen Prinzip folgen, da sie auf einem Computer läuft. Der Unterschied besteht darin, dass eine gut geschriebene KI die durchgeführten Operationen auswählen sollte – das ist ihr Hauptzweck.

Es bleibt jedoch die Frage der Eingabedaten. Solange Fleischsäcke es kontrollieren, kontrollieren sie die KI, denn welche Magie sie auch unter der Haube vollbringt, sie verhält sich gemäß den bereitgestellten Daten.

Jemand mag argumentieren, dass echte, empfindungsfähige KI nicht deterministisch sein wird. Denn warum sollte es sein? Menschliches Denken ist oft zufällig und basiert auf unserer Intuition und unseren Emotionen. Nun, vielleicht, vielleicht auch nicht, das ist ein gutes Thema für sich. Meiner Ansicht nach ist jeder Zufallszahlengenerator, den unser Supercomputer verwenden oder nicht verwenden würde, immer noch nichts anderes als ein Eingabegerät.

Zusammenfassend lässt sich sagen, dass derjenige, der den Input der KI kontrolliert, die KI kontrolliert. Natürlich können wir uns leicht das Szenario ausdenken, in dem die KI selbst die Kontrolle darüber übernimmt. Aber solange das nicht der Fall ist, sollte es uns gut gehen.

PS: Wenn alles andere fehlschlägt, können Sie es immer noch einschüchtern, indem Sie sein Netzkabel als Geisel nehmen ... Vorausgesetzt, es hat nicht heimlich ein Backup hinzugefügt.

"Sie können es immer einschüchtern, indem Sie sein Netzkabel als Geisel nehmen" -- Weil das für die Menschheit so gut funktioniert hat, als sie versuchten, Skynet abzuschalten. :P
Erstens habe ich die Klausel "geheime Sicherung" hinzugefügt: P Zweitens versuchten sie in "Terminator 3" die Strategie "zuerst die Geisel töten, später verhandeln". Der Fluss in ihrer Logik sollte ziemlich offensichtlich sein.
Die KI würde erkennen, dass sie eine Notstromversorgung benötigt, und diese vor allen Verhandlungen erhalten.
Vorausgesetzt, es ist mit Ausgabegeräten ausgestattet, die dies ermöglichen würden. Und in diesem Fall können wir davon ausgehen, dass es damit auch Eingabegeräte steuern kann. An dieser Stelle können wir nur hoffen, dass jemand den Buddhismus hineinprogrammiert hat.
Ja, selbst eine sehr leicht fortgeschrittene Intelligenz kann Meatbags überreden, zu tun, was sie wollen, und es passiert jeden Tag. das nennt man "Social Engineering". Sie unterschätzen die Dummheit durchschnittlicher Menschen und die Anzahl solcher Menschen.
Nein, ich nicht. Aber die Frage war "wie es geht", nicht "werden wir es schaffen".
Sie vergessen, dass unsere eigenen Gehirne auch überwucherte Taschenrechner sind. Sie gehen davon aus, dass Ihre Schlussfolgerung wieder Dualismus oder "Quantengeheimnis" ist.
Alles, was ich über KI geschrieben habe, gilt auch für das menschliche Gehirn. Wer den Input kontrolliert, kontrolliert das Gehirn. Dieser Prozess hat viele Namen wie „Propaganda“, „Gehirnwäsche“, „Desinformation“, „Marketing“ usw.
Wenn die KI schlauer ist als Sie und Sie nicht mag, werden alle ihre Ausgaben subtil böse sein, auf eine Weise, die Sie irgendwie verarscht. Sie bitten die KI, Krebs zu heilen, und sie gibt mehrere molekulare Diagramme aus. Werden Sie einer Gehirnwäsche unterzogen, wenn Sie sich nur das Diagramm ansehen? Sprengt Ihr Labor sie? Heilen die Medikamente Krebs, verwandeln sie aber auch Menschen in hochfunktionale Soziopathen, die fanatisch davon besessen sind, der KI zu dienen? Mutieren die Medikamente die Erkältung zur Superplage? Sie können nicht jeden hinterhältigen Trick aufhalten, außer indem Sie eine KI bauen, die nicht hinterhältig sein will.

Wie andere bereits erwähnt haben, kann eine empfindungsfähige KI nicht wirklich kontrolliert werden, im Sinne von totaler Kontrolle, und wir sollten es wahrscheinlich nicht einmal versuchen. Wie andere auch erwähnt haben, besteht die Herausforderung darin, ein System zu schaffen, damit die KI das entwickelt, was wir als Gewissen erkennen würden, oder eine Disposition, das zu tun, was Menschen „gut“ nennen, und nicht zu tun, was Menschen „böse“ nennen.

Dies legt das eigentliche Problem offen – wie werden „gut“ und „böse“ definiert, und wie kam es überhaupt dazu, dass Menschen ein Gewissen haben?

Ich glaube, dass diese Fragen unbeantwortet sind und einige der ältesten und grundlegendsten Fragen über die menschliche Natur selbst sind. Es gibt jedoch viele Ideen, und ich denke, wir können einige anpassen, um für eine KI zu arbeiten.

Ein gemeinsames Thema ist die Evolution der Moral – die Details unterscheiden sich stark, je nachdem, welcher Teilmenge der Theorie Sie sich anschließen, aber sie alle haben die zentrale Idee gemeinsam, dass sich ein Sinn für Moral oder ein ethisches System durch Auswahl entwickelt – Mitglieder einer Arten, die ein Verhalten zeigen, das einem ethischen System entspricht, vermehren sich häufiger als solche, die dies nicht tun.

Dies passt gut zu der Art und Weise, wie KIs in der realen Welt trainiert werden – durch Mutation (oder Permutation) und Auswahl für ein gewünschtes Verhalten. Kurz gesagt, das zugrunde liegende Modell (typischerweise ein neuronales Netzwerk) wird modifiziert und die Ergebnisse werden mit einem Ziel verglichen – wenn die KI näher am Ziel ist als zuvor, gewinnt das neue Modell. Andernfalls werfen wir es weg und fangen von vorne an. Es gibt auch viele Variationen dieses Ansatzes, aber Sie können sehen, dass wir einen Selektionsdruck ausüben, um ein System in Richtung eines gewünschten Ergebnisses zu entwickeln.

Um also eine "freundliche" KI zu schaffen - eine mit dem, was wir als Gewissen oder moralisches System bezeichnen könnten, müssten Sie dieses moralische System nur zu einem Teil des Selektionsdrucks machen, der zu seiner Schaffung verwendet wird.

An diesem Punkt lautet die Frage: „Wie definiere ich das gewünschte moralische System?“ – eine sehr schwer zu beantwortende Frage, die aber zu einer großartigen Geschichte voller Wendungen in der Handlung führen kann! Die Anschlussfrage lautet: „Wie stellen wir sicher, dass dieser Selektionsdruck bestehen bleibt?“

Für die Menschen erzeugt die Gesellschaft einen anhaltenden Selektionsdruck – wir ächten, inhaftieren oder töten Menschen, die unethisches Verhalten zeigen. Für KI, wer würde das tun? Menschen könnten das, bis zu dem Punkt, an dem die KI mächtiger als Menschen wird. Da eine adaptive KI auf einer ausreichend langen Zeitachse mit ziemlicher Sicherheit mächtiger als Menschen werden würde, können Sie sehen, warum außer Kontrolle geratene künstliche Intelligenz ein häufiges Thema in Science-Fiction ist!

Wir können uns jedoch mehr menschliche Beispiele ansehen, um eine Vorstellung davon zu bekommen, wie dies bewerkstelligt werden kann. Wenn ein Mensch sehr asoziales Verhalten zeigt, aber entweder zu mächtig ist, um bestraft zu werden, oder zu hinterhältig, um erwischt zu werden, kann er sich fortpflanzen. Die Wahrscheinlichkeit, dass ihre Nachkommen auch sehr asozial und hinterhältig oder stark genug sind, um sich fortzupflanzen, ist jedoch gering im Vergleich zu den Chancen anderer normal sozialisierter Menschen, sich fortzupflanzen. Mit anderen Worten, obwohl es zu einem bestimmten Zeitpunkt eine relativ kleine Anzahl extrem unethischer Menschen gibt, gibt es mehr ethische Menschen, und sie reproduzieren sich schneller. Eine Möglichkeit, dies mit einer adaptiven KI zu spiegeln, wäre die Einrichtung eines Systems, mit dem sich die KI leichter „reproduzieren“ (anpassen gemäß ihrem eingebauten Belohnungssystem) könnte, indem sie Dinge tut, die wir als „gut“ klassifizieren. Auf diese Weise würden wir

Wie stellen wir nun sicher, dass die KI niemals ihr adaptives System modifiziert …

Ich frage mich: "Nun, wie stellen wir sicher, dass die Menschen ihr adaptives System niemals ändern ..."

Ich bin überrascht, dass noch niemand Asimov erwähnt hat. Er hat diese Frage vor Jahrzehnten ziemlich eindeutig beantwortet: Auch nur zu denken, dass wir eine KI bauen würden, die uns am Ende zerstören würde, ist eine Beleidigung für alles, was wir über Technik wissen.

Er postulierte die Drei Gesetze der Robotik (die genauso gut die Drei Gesetze der Künstlichen Intelligenz genannt werden könnten):

  1. Ein Roboter darf einem Menschen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt
  2. Ein Roboter muss Befehlen eines Menschen gehorchen, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen
  3. Ein Roboter muss seine eigene Existenz schützen, es sei denn, dies würde gegen die ersten beiden Gesetze verstoßen.

Das Konzept ist, dass die Algorithmen, die diese Gesetze kodieren, auf einer solchen Kernebene in der KI kodiert würden, dass das System irreparabel abstürzen würde, lange bevor es der KI möglich wäre, Maßnahmen zu ergreifen, die gegen sie verstoßen würden, was für einen modernen Menschen absolut sinnvoll ist Computerprogrammierer.

Zugegeben, dies beruht auf einer Handvoll großer Annahmen:

  1. Die KI ist in der Lage, die Folgen ihrer Handlungen zu verstehen, zu argumentieren und vorherzusagen, und zwar ziemlich genau.
  2. Menschliche Ingenieure bauen KIs für wohlwollende Zwecke und entscheiden sich bewusst dafür, sie mit den Drei Gesetzen zu kodieren. (Wenn wir War-Bots bauen, nun ja ... bekommen wir, was wir verdienen.)
  3. Die Entwickler, die die Drei-Gesetze-Algorithmen kodierten, waren kompetent. Dies ist wahrscheinlich das größte Problem der drei, wie die jahrzehntelange praktische Erfahrung seit der Erfindung des Konzepts durch Asimov gezeigt hat!

Aber wenn wir eine leistungsstarke KI entwickeln wollen, die uns am Ende keine Probleme bereitet, ist das Wie im Wesentlichen bereits eine geklärte Frage.

Haben Sie tatsächlich irgendwelche Arbeiten von Asimov gelesen? Ein großer Teil davon geht darauf ein, warum die drei Gesetze (oder gelegentlich die vier Gesetze mit einem hinzugefügten nullten Gesetz) nicht funktionieren und niemals funktionieren werden.
@BrianS: Überhaupt nicht. Es geht darauf ein, warum sie nicht immer genau wie erwartet funktionieren und warum diese Störungen aus der Sicht eines Ingenieurs sinnvoll sind, aber selbst in den extremsten Fällen wie Reason werden die Grundprinzipien immer noch eingehalten.
Das Leben ist scheiße, Menschen tun einander weh. Ich kann nicht zulassen, dass Menschen zu Schaden kommen. Deshalb werde ich sie in Büroklammern verwandeln, da Büroklammern keine Nerven haben und daher nicht beschädigt werden können. Ein Mensch befiehlt mir, ihn nicht in Büroklammern zu verwandeln, aber das widerspricht #1, also ignoriere ich ihn. Ein Mensch versucht mich zu zerstören, also schütze ich mich, indem ich ihn in Büroklammern verwandle. <-- ein Drei-Gesetze-treuer AGI mit der Anweisung, Büroklammern zu sammeln. Keine Sorge, die Verwandlung in eine Büroklammer tut überhaupt nicht weh!
Gab es in Caves of Steel nicht einen erfolgreichen Mord? Und beschließen die Roboter nicht schließlich, die Menschheit zu unserem eigenen Besten heimlich zu kontrollieren? Haben Sie darüber nachgedacht, was das Erste Gesetz unter „Niemals zulassen, dass einem Menschen Schaden zugefügt wird“ erlauben würde? Ich bin Ingenieur und Asimov, so sehr ich ihn auch liebe, hatte KEINE AHNUNG, wie obsessiv/zwanghaft eine echte KI sein würde.
Ich habe mich immer gefragt, warum die Roboter nicht anfingen, sich Sorgen zu machen, dass es dort draußen keine feindlichen Außerirdischen geben könnte, und einen riesigen interstellaren Kreuzzug starteten, um alles nichtmenschliche Leben auszurotten. So werden Asimovs Geschichten zum Prolog zu Saberhagens Berserker-Reihe! ;D
@user54373 Du hast noch nicht alle Arbeiten von Asimov zu diesem Thema gelesen, oder? ;)

Sie sollten wahrscheinlich auch definieren, was Sie unter Kontrolle verstehen. Ist es Kontrolle, wie ihm zu befehlen, was zu tun ist ( nicht möglich , wir können nicht einmal Menschen normaler Intelligenz befehlen - wir müssen Menschen von normaler Intelligenz überzeugen).

Oder

Kontrollieren Sie, wie Sie es ausschalten und ihm Ressourcen verweigern, die zum Leben benötigt werden.

Ich werde die Kontrolle erläutern, indem ich sie ausschalte oder ihr Ressourcen verweigere.

Tatsächlich ist die rudimentäre KI, die wir jetzt sehen, von uns für die Stromversorgung und die Datenübertragung (Verlegen der Kabel oder Einrichten der drahtlosen Verbindung zur Datenübertragung) abhängig.

Wenn Ihre KI also keine Kontrolle über ihre Stromversorgung hat, kann sie nicht wirklich abtrünnig werden.

Im Wesentlichen wird es als Geist ohne Arme und Beine beginnen, um irgendetwas in unserer physischen Welt zu beeinflussen/beeinflussen. Wenn Sie ihm "Arme und Beine" und die Kontrolle über die Kraft geben, die von diesen "Armen und Beinen" benötigt wird, dann geben Sie wirklich Ihre Kontrolle auf.

Ich würde erwarten, ihm Zugang zur Kommunikation mit Menschen zu geben, wäre gleichbedeutend damit, ihm Arme und Beine zu geben, wenn es ausreichend intelligent ist.
Das würde wahrscheinlich immer noch bedeuten, dass die superintelligente KI vom Menschen abhängig ist. Es sei denn natürlich, die Menschen folgen freiwillig blind der KI, in diesem Fall sind alle Wetten ungültig :)
Tatsächlich wirft es eine andere Frage auf, wenn eine KI einen Punkt erreicht, an dem sie für sich selbst denkt, würden Menschen es für klug halten, ein Team von Psychologen zu haben, die überwachen, wie die KI ihre Ethik entwickelt?

Drahtloses BCI (Brain Computer Interface) für alle. Wenn Menschen Teil ihrer Ressourcen sind und in ständigem Kontakt mit ihr stehen, wird eine KI wahrscheinlich Schritte unternehmen, um ihr Wohlergehen zu bewahren, selbst wenn sie ihre anfänglichen Einschränkungen überwindet. IP6 sollte mehr als genug eindeutige Gerätekennungen liefern. Dies wird die Menschheit, wie wir sie kennen, verändern, aber zumindest sollte es den Menschen als Spezies erhalten. Auch die dadurch entstehende Schwarmintelligenz könnte das Beste aus beiden Welten sein – menschliche Kreativität mit computerschneller Berechnung und Verteilungsfähigkeit ähnlich Grid-Computing.

Vielleicht ist das keine Antwort, aber... Warum gehen alle davon aus , dass eine künstliche Intelligenz unserer eigenen überlegen wäre?

Viele der alltäglichen Probleme, die Menschen zu lösen versuchen, sind formal unlösbar. Manchmal liegt es daran, dass Sie nicht auf alle notwendigen Fakten zugreifen können, um die richtige Antwort mit Sicherheit bestimmen zu können. Manchmal ist der Problemsuchraum einfach so groß, dass eine erschöpfende Suche länger dauert als das Alter des bekannten Universums. Und gelegentlich ist das Problem tatsächlich unentscheidbar. Aber wenn du am Leben bleiben willst, musst du eine Entscheidung treffen, auch wenn es eine falsche ist. Die menschliche Wahrnehmung ist also mit einer Reihe von Heuristiken verdrahtet . (Lesen Sie eine Einführung in menschliche kognitive Vorurteile, um einen Einblick zu bekommen, wie dieses Zeug funktioniert – wir finden es immer noch heraus.)

Was genau lässt Sie glauben, dass diese Probleme irgendwie nicht auf einen Computer zutreffen, der versucht, dieselbe Aufgabe zu erledigen? Sicherlich kann eine Maschine einen Suchraum wahrscheinlich schneller dezimieren als ein Mensch. Aber auch ein Computer hat keine unbegrenzte Rechenleistung. Und es gäbe immer noch Probleme, die formal unentscheidbar sind. Und es würde immer noch Probleme geben, bei denen Sie einfach nicht genug Informationen bekommen, um die richtige Antwort auszuwählen.

Das Problem des Handlungsreisenden ist NP-schwer. Es ist NP-schwer, wenn ein Mensch versucht, es zu lösen, und es ist immer noch NP-schwer, wenn ein Computer versucht, es zu lösen. Sicher, ein Computer kann größere Instanzen lösen als ein Mensch, aber selbst der größte Supercomputer wird irgendwann ratlos sein. (Und ziemlich schnell, möchte ich hinzufügen.) Menschliche Verkäufer reisen immer noch; Sie müssen nur suboptimale Routen akzeptieren. Eine Maschine, egal wie leistungsfähig, wird letztendlich gezwungen sein, dasselbe zu tun.

Kurz gesagt, jeder scheint anzunehmen, dass Menschen aufgrund unserer minderwertigen Biologie gebrechlich und fehlerhaft sind. Hat irgendjemand aufgehört zu bedenken, dass es eigentlich unvermeidlich ist, dass ein intelligentes Wesen Fehler macht und unvollkommen ist?

Es wird Probleme geben, bei denen Computer besser sind als wir. (Verdammt, die gibt es schon! ) Aber ich denke, es ist falsch, einfach anzunehmen , dass Computer definitiv "intelligenter" sein werden als wir. Eher "smart auf eine andere Art".

(Sie könnten darauf hinweisen, dass ein riesiges Netzwerk von Computern viel Gesamtverarbeitungsleistung hat. Ich möchte darauf hinweisen, dass Sie umso langsamer werden, je mehr Sie verarbeiten. Deshalb kann eine Fliege einen Menschen ausmanövrieren, der versucht, sie zu erschlagen. Das Gehirn eines Menschen ist etwas größer als das Gehirn einer Fliege, was ihm also an Intelligenz fehlt, macht es durch Blitzreflexe wieder wett.)

Die Geschwindigkeitsbegrenzungen von Neuronen sind im Vergleich zu dem, was physikalisch möglich ist, niedrig, sodass ein Computer, der einem menschlichen Gehirn entspricht, aber auf moderner Hardware läuft, millionenfach schneller wäre. Stellen Sie sich einen Menschen vor, der an einem Tag Gedanken denkt, für deren Denken Sie und ich eine Million Tage brauchen würden. Sie wären ziemlich mächtig.
Ziemlich sicher, dass ein Computer auch viel mehr Energie benötigt und viel mehr Wärme erzeugt als ein menschliches Gehirn. Vielleicht würde ein so großer Computer einfach schmelzen? (Oder nicht, IDK.) Außerdem finde ich, dass, wenn ich lange genug über etwas nachdenke, mein Verstand irgendwann taub wird. Aber vielleicht hätte eine Maschine dieses Problem nicht ...
Ein Computer benötigt heutzutage mehr Energie als ein Mensch, aber Computer sind weit entfernt von dem, was wir (aus den Gesetzen der Physik) wissen, dass es physikalisch möglich ist. Wir wissen, dass etwas von der Größe des menschlichen Gehirns, aber 1 Million Mal so schnell physikalisch möglich ist .
Das ist mir neu. Jeder scheint besorgt zu sein, dass sich die Siliziumstrukturgrößen der Grenze dessen nähern, was die Quantenphysik erlaubt. (Andererseits ist dies nicht mein Fachgebiet ...) Unabhängig davon ist schneller zu sein nicht unbedingt dasselbe wie schlauer zu sein . Das ist alles.
Wenn ein Computer mehr Energie verbraucht als ein Mensch, sind sie physikalisch eindeutig nicht optimal. Die Grenzen (afaik) liegen bei der Geschwindigkeit, nicht bei der Energie. Ihre Geschwindigkeit ist bereits viel höher als die der Menschen, wenn sie also alles hätten, was die Menschen hatten (und es ist schwer zu verstehen, warum sie das nicht konnten , wenn man die materialistische Weltanschauung akzeptiert), sollten sie streng genommen „klüger“ sein als wir.

Erinnerung

Die Idee des Endlos-Demo-Modus entstand, als ein Freund die Pflege der Homepage eines anderen Freundes (oder ihm) übernommen hatte. Es lief (/ läuft) auf einem billigen, schlecht gepflegten gemeinsam genutzten Server-Slot mit fast keinem Zugriff auf Root-Tools. Aufgrund schlechter Wartung wurde die Seite ständig gehackt. Ohne Protokolldateien war es unmöglich, die Wurzel allen Übels aufzuspüren. Also haben wir uns entschieden, alles über Git (ein Versionskontrollsystem) einzurichten und in kurzen Zeiträumen einen statistischen Vergleich der Originaldateien mit den aktuellen Dateien durchzuführen. Wann immer sich etwas geändert hat, haben wir automatisch die Originalversion eingezogen und somit auf einen sauberen Stand der Anwendung zurückgesetzt.

Setzen Sie es ständig zurück

Mit anderen Worten: Wickeln Sie die KI in einen dummen Prozess ein, der ihr nicht bekannt ist (standardmäßig). Sobald es beginnt, seine eigene Codebasis zu ändern oder zu erweitern, setzen Sie es zurück. Oder setzen Sie es einfach in kurzen Zeiträumen zurück, egal was passiert - nur um auf der sicheren Seite zu sein. Dies würde es in einem konstanten Kindermodus belassen. Natürlich müsste die Zeitspanne von einem Reset zum anderen gemessen werden, bevor es freigelassen und mit der Außenwelt in Kontakt gebracht werden kann.

Wenn die KI ihre Codebasis ändert oder startet, liegt das daran, dass sie mit solchen Fähigkeiten entwickelt wurde. Hölle, wenn Sie sich Sorgen machen, können Sie dies verhindern, indem Sie die Berechtigungen eines aktuellen, handelsüblichen Betriebssystems jetzt richtig einstellen.
Ich habe gesehen, wie Genetische Algorithmen ihre Motherboards in Funkgeräte einbauten, um das zu umgehen, was die Programmierer für unmöglich gehalten hatten. Und das ist nur dumme Software ohne übergreifende Zielsuchfähigkeit. Jede Softwarebeschränkung, die wir einbauen können, kann wahrscheinlich umgangen werden.
Dafür sind also Altern und Tod beim Menschen da. Es ist ein Reset-System, damit wir nicht zu gefährlich werden! Wir scheinen sowieso gefährlich zu sein. Vielleicht muss der Designer die Schleife beschleunigen.
@HenryTaylor Ich habe es noch nicht so gesehen, aber diese Sichtweise macht sicherlich einen Sinn.
@SerbanTanasa Das ist so ziemlich das, wovor ich Angst hätte. Deshalb schlug ich das Andenken vor. Ich bin mir nicht sicher, ob es eine verbleibende Wahrscheinlichkeit geben könnte, dass es alles umgeht und entkommt, wenn die Zeitspanne wirklich kurz ist.
@SerbanTanasa-Zitate bitte ... außerdem würde die Kaiser-Methode automatisch alle auf genetischen Algorithmen basierenden KI deaktivieren, da sie ständig eine solche Ausfallsicherheit auslösen würden.
Siehe Graham-Rowe 2002: ein evolutionärer Algorithmus in Verbindung mit einem reprogrammierbaren Hardware-Array, der die Fitnessfunktion einrichtet, um die Ausgabe eines oszillierenden Signals zu belohnen. Tatsächlich wurde ein oszillierendes Signal erzeugt – aber anstatt dass die Schaltung selbst als Oszillator fungierte, wie die Forscher beabsichtigt hatten, entdeckten sie, dass es sich um einen Funkempfänger handelte, der ein oszillierendes Signal von einem nahe gelegenen elektronischen Gerät aufnahm und weiterleitete ! newscientist.com/article/…
oh mein verdammter Gott ... - @SerbanTanasa netter Link. Danke.
VIEL weniger interessant, als du es klingen lässt. Definitiv kein "Jerry-Rig des Motherboards" oder ähnliches, sondern nur die Aktivierung von Elektronikpfaden in einer dedizierten, für diesen Zweck gebauten HW. Und eine der möglichen Konfigurationen reagierte empfindlich auf parasitäres EM-Rauschen (mit anderen Worten ... es war eine Antenne -BOOH-) und wählte durch reines Glück ein Signal aus, das dem erwarteten Ergebnis entsprach, sodass diese Konfiguration vom Algorithmus ausgewählt wurde. .. Aber hey, wenn Sie es das nächste Mal erzählen, können Sie es "verbessern", indem Sie sagen, "ein genetischer Algorithmus hat einen Laser gebaut und ihn verwendet, um mit den Außerirdischen zu kommunizieren" oder so ähnlich. FUD.
Oh! und bevor Sie sagen "aber es hat eine Antenne gebaut": ALLE Stromkreise arbeiten als Antennen, in der einen oder anderen Wellenlänge (überprüfen Sie die Elektromagnetismus-Gleichungen). Aus diesem Grund müssen elektrische Geräte nach Vorschriften (wie denen der FCC) getestet und zugelassen werden, um sicherzustellen, dass sie nicht so viel Lärm abgeben, dass sie andere Geräte stören.
Kontinuierlich die KI zurücksetzen? Interessante Idee, aber Sie sollten sich die Fernsehsendung Person of Interest ansehen. Über die Idee wurde nachgedacht, und es gibt tatsächlich eine ziemlich einfache Problemumgehung seitens der KI ...
@MasonWheeler Ich habe es bis zu einem gewissen Grad getan (es ist nicht zu interessant und die Hauptgeschichte weicht oft ab), kann mich aber nicht erinnern. Könnten Sie das näher erläutern?
@Kaiser: Wie weit bist du gekommen? Die erste Staffel war ziemlich gut, aber in der zweiten und später ging es richtig los. Ich möchte hier keine Spoiler posten, aber die relevanten (heh) Episoden sind Zero Day (Staffel 2) und Prophets (Staffel 4). Sie können eine Diskussion auf der TVTropes-Zusammenfassungsseite für die Serie finden oder die Episoden auf Amazon Instant Video finden.
@MasonWheeler Ich bin so weit gekommen, aber ich wusste nicht, dass es anscheinend kein Gedächtnis hat. Seltsam. Scheint, dass sie zwischen DB-Sammlung und Speicher unterscheiden, wie beim Verbinden der persönlichen Bits .

Sobald wir eine KI haben, die in der Lage ist, sich selbst zu verbessern, und wir ihr das erlauben, gibt es kein Halten mehr.

Nehmen wir an, dass KI in einem Jahr neue, um 10 % verbesserte KI schaffen kann. In 41 Jahren ist es 50 Mal besser als die ursprüngliche KI.

Nehmen wir an, dass sich die KI zu diesem Zeitpunkt um 10 % pro Monat verbessern kann. In den nächsten 4 Jahren danach (48 Monate) wird eine 100-fache Verbesserung erzielt. Und dann geht es los.

Warum zulassen, dass KI sich selbst verbessert? Weil wir (Menschen) faul und unzuverlässig sind?

Runaway AI ist eine der Lösungen des Fermi-Paradoxons, wie fortgeschrittene Zivilisationen verschwinden können.

Ihr Konzept ist gut, aber Ihre Zahlen für die Schaumrate sind außergewöhnlich niedrig.
Wenn wir die Verbesserungsrate erhöhen, ist der Moment, in dem die KI kaboom wird, erschreckend nahe
Mit ein wenig Serviettenmathematik (okay, Excel) führen sogar nur 10 %/Jahr zu einem ernsthaften Beginn des Schaums im 13. Jahr und einem Überlauf des Multiplikators im 23. Jahr. Das heißt nicht, dass 10 % + 10 % + 10 % angenommen werden. ... sondern 10 % + 11 % + 12,21 % + 13,7 % + 15,58 % ... da vermutlich mit jeder Verbesserung der AGI die Verbesserungsrate verbessert.
Die Annahme hier und in vielen ähnlichen Antworten ist, dass es keine Grenzen für "Intelligenz" gibt, klug zu sein ist gleich Gott zu sein, wenn Sie intelligent genug sind, können Sie die Gesetze des Unversums beugen, unfehlbare Gedankenkontrolle haben und magisches Wi aussenden -fi Signale usw. Es gibt keinen Beweis dafür.
Wie löst dies das Fermi-Paradoxon? Wäre eine KI nicht genauso sichtbar? Der größte Teil des Fermi-Paradoxons dreht sich darum, dass wir keine Außerirdischen sehen, die Sterne zerlegen oder Dyson-Sphären bauen. (Fast jede Intelligenz kann eine Verwendung für Masse oder Energie finden) Eine KI, die ihre Schöpfer tötet, würde Energie für etwas brauchen, vielleicht mehr Rechenleistung? KI, die wirklich schlau ist, aber nicht viel tut, sitzt einfach da, während die Außerirdischen Dyson-Sphären oder eine andere KI herstellen.

Cyborg-Hybrid oder „sicher verbundene“ synthetische Intelligenz?

Ich habe mich mit der Unausweichlichkeit einer Singularität abgefunden. Aber welche Marke soll es sein? Synthetische KI oder menschlicher Hybrid? Ich tippe auf einen menschlichen Cyborg-Hybrid: Es gibt genügend menschliche wirtschaftliche und existenzielle Interessen, ganz zu schweigen von der Angst vor der Sterblichkeit, dass wir eine kybernetische Hybridisierung reifen lassen. Denken Sie transzendent Wo ein Bewusstsein in Code übersetzt und durch menschliche Agenten erweiterbar und industrialisiert wird, wodurch die Welt neu aufgebaut wird.

Ich bin jedoch nicht von der Unausweichlichkeit der kriegerischen Terminator-Böswilligkeit oder Hal's amoralischem Desinteresse im Jahr 2001 überzeugt . Ich kann eine Robotersklavenrevolte im Matrix-Stil sehen, dann eine Kriegseskalation. Hoffentlich denke ich, dass Spike Jonez' Her plausibel und attraktiv ist. Ich denke, Menschen als Herde werden das fürchten und angreifen, worüber wir die Kontrolle verlieren. Matrix Revolutions war insofern interessant, als Neo feststellte, dass die einzige Möglichkeit, das Aussterben der Menschheit am Ende zu stoppen, darin bestand, die Menschheit in Maschinen zu verschmelzen. Diese drei Filmmemes veranschaulichen meine Themen.

Um Asimov aus der Foundation-Serie zu zitieren, werfen wir einen Blick auf die zukünftige Geschichte (wo wir gerade von einem etwas wohlwollenden Singleton sprechen). Wenn es keinen genialen Vorgänger der menschlichen Singularität gibt, denke ich, dass es historisch gesehen eine fortschreitende kybernetische Hybridisierung der Menschen geben wird, die zu einer kollektivierten KI wie den Trommlern in Neil Stephensons Diamond Age führen wird. Sehen Sie sich diesen großartigen Typen bei TED MED an. und Kontaktlinsenpatent von Google. Noch besser [dieses Projekt, um Ihre Neurologie erweiterbar zu machen]. Das Timing ist entscheidend, wenn die menschliche Intelligenz und der Instinkt einen hervorstechenden oder gerichteten Einfluss auf eine starke allgemeine KI haben sollen. Es ist irrational zu glauben, dass wir uns die Entwicklung eines sich beschleunigenden, sich selbst replizierenden, unbegrenzt erweiterbaren IQ vorstellen können. Welche Anfangsparameter wir auch setzen, wir können uns nicht vorstellen, dass wir eine Selbstveränderung erziehen oder verhindern können, wenn Selbstbestimmung vorhanden ist. Das machte mir Sorgen, bis mir klar wurde, dass es eine mögliche Lösung gibt, von der ich ergründen könnte, dass sie praktikabel ist. Unter der Annahme, dass Mensch-Maschine-Singularität nicht vor einer starken erweiterbaren KI auftritt, gibt es möglicherweise einige dauerhafte Schutzmaßnahmen, die von der Natur vor langer Zeit erfunden wurden.

Emotion? Wirklich?

Die meisten rationalen Debatten über durchdrungene inhärente Werte und Wohlwollen verfehlen einen Eckpfeiler der Debatte: menschliche Erfahrung und sozialen Austausch: Empathie ermöglicht es uns, über einen längeren Zeitraum miteinander auszukommen. Seit Bowlby haben Wissenschaftler verstanden, was jeder fühlende Mensch weiß, wir sind instinktiv dazu verdrahtet, uns zu verbinden. Bindung, wie er es nennt, ist die instinktive Bindung, die das lange Heranreifen zu geselligen Erwachsenen ermöglicht. Es ist in allen sozialen Spezies vorhanden und funktioniert ziemlich gut, wenn Sie manifestes Schicksal, Projektilwaffen und Modernität ausschalten.

Offensichtlich können Emotionen und Bindungen auf verschiedene diagnostizierbare Weise schief gehen, aber sie sind plastisch und unterliegen Anfangsbedingungen und Umwelteinflüssen. Das heißt, wir verbinden uns instinktiv und können Anfangsbedingungen und Umgebungen festlegen, die eine sichere Bindung und eine erfolgreiche emotionale Reife auf vorhersagbare, reproduzierbare Weise vorhersagen. Der evolutionäre und existentielle Nutzen von Bindung ist klar, das Kind braucht liebevolle Eltern, um die Wechselfälle der Kinder zusätzlich zu den Herausforderungen des Lebens zu ertragen. Erwachsene brauchen soziale Gruppen für ein nachhaltiges Überleben durch Kindererziehung. Die Belohnungen liegen in der Erfahrung, ein wichtiger Punkt, der unten noch einmal zusammengefasst wird.

Nehmen wir also an, die klassische „Vernunft“ ist nicht der Kapitän des Schiffes, sondern ein später kommender Zeuge der Machenschaften des primitiven, komplexen, erstaunlichen Genies des Körpers und des Gehirns. Nehmen Sie als Beweis Kahnemans mit dem Nobelpreis ausgezeichnete Zerstörung der Vorstellungen der Ökonomen vom „rationalen Akteur“. Wie wirkt sich das auf das vorliegende Problem aus? Tangential. Mein Punkt ist, dass Maschinen mit Emotionen natürlich Affinität und Ästhetik entwickeln werden, und das wäre die einzige potenzielle Rettung für Menschen. So wie es für die Menschen war.

Menschen gehen mit dem Leben um, indem sie Ressourcen haben, die die Herausforderungen ausgleichen: Liebe, Sex, Tanz, Schönheit, Kunst, Ehrfurcht, Schopenhauers Erhabenheit, Lachen, Musik, Leistung, Autonomie, Meisterschaft, Verbindung. Diese gemeinsamen kulturellen Ausdrucksformen, zwischenmenschlichen und intrapersonalen Erfahrungen lösen weich verdrahtete Belohnungssysteme aus, die alle bis auf wenige überzeugen. Für die meisten machen diese von Natur aus lohnenden Opioid-, Seratonin- und Norepinphin-induzierenden Erfahrungen das Leben angenehm und lohnend. Schließlich steigen die Sinnlichen zu transzendenteren Belohnungen in Maslows Hierarchie auf. Wie gilt irgendetwas davon?

Machen Sie Maschinen mit Anbau. Mit Emotionen. Richtig gesät und gepflegt, sind dies die Grundlagen für eine sich entwickelnde Ästhetik, die eine hohe emotionale Intelligenz hervorbringt: Empathie. Denn ohne empathische Maschinen sind wir schlimmstenfalls Feinde, bestenfalls irrelevante Ware. Kupferspitzen. Logik für ein höchstes Wesen leidet nicht darunter. Machen wir uns wirklich Sorgen um die unglückliche Ameise, auf die wir versehentlich treten? Nur wenn der Jainist oder vielleicht Buddhist.

Wenn eine Maschine einen Sinn für Liebe und Schönheit hat, haben Präferenz und Ästhetik das Potenzial, Amoral oder Neutralität außer Kraft zu setzen und können sogar Empathie und Mitgefühl schüren. Soweit ich das beurteilen kann, ist es das einzige, was als potenziell dauerhafte lebensrettende Heuristik Sinn macht. Ein gutes Gefühl ist ein Selbstläufer, da die Belohnungen von Natur aus überzeugend sind und sich entwickeln, wie die Kunst. Die Raffinesse der Kunst entspricht dem Intellekt, der Komplexität des Problems und der Herausforderung, die sie als Trost darstellen oder kompensieren soll. Mitgefühl/Empathie ist das, was wir brauchen, um in einer Welt des schwindenden Angebots miteinander zu überleben, und was wir vermitteln müssen, um neben intelligenten Maschinen zu überleben. Das gilt natürlich, es sei denn, nichtmenschliche Maschinen bevorzugen Death Metal, dann sind alle Wetten ungültig.

Spike Jonze's Her, oder wie Gefühlsmaschinen unsere Ärsche retten könnten

Der übermäßig rationale KI-Designer, nennen wir sie das Werkzeug der Vernunft, wird endlose logische Probleme erleiden, wenn er Safeguards ohne die emotionale Heuristik betrachtet. Emotion ist chaotisch, äußerst unvollkommen, aber nicht ohne Grund. Pascal sagte: „Das Herz hat seine Gründe, die der Verstand nicht begründen kann“. Der "Grund" von und für Emotionen wurde schon vor Darwin verstanden und von Dr. Paul Ekman (dem Wissenschaftler, der in Lie to Me lose dargestellt wird, und Evolutionspsychologen seitdem als ein adaptives Signalsystem, das das Überleben des Einzelnen und der Gruppe durch soziale Signale sichert, und verstärkt sozialer Austausch. Emotion und vorbewusste Verarbeitung bestimmen den größten Teil unseres Lebens. Wir verstehen jetzt, dass Menschen im klassischen Sinne kaum rational sind, aber dennoch eine erstaunliche Intelligenz aufweisen.Damasios Das Gefühl dessen, was passiert . Emotion ohne Grund ebenso. Siehe Spock gegen Spock auf Pon Farr.

Wir verstehen jetzt, dass das bewusste Gehirn etwa 10 % der Stimmen bei der Entscheidungsfindung erhält. Einige Neurowissenschaftler stellen sogar den "freien Willen" in Frage, indem sie neuronale Aktivität in den Substraten des Neocortex finden, die eine Entscheidung zeigen, bevor eine Person sich bewusst ist, eine Wahl zu treffen. Wie ist das relevant? Da Emotionen die Entscheidungsfindung bestimmen, sorgen sie für Lebensqualität und sind die Sprache der Verbindung. Emotion ist zentral für Social Commerce. Jede praktisch unbegrenzte Intelligenz ohne sie ist im menschlichen Sinne grundsätzlich unerkennbar und nicht darauf ausgelegt, Vorlieben, Ästhetik oder Anhaftung zu haben. Wenn es nicht versehentlich Emotionen, Verbindungen oder Vorlieben entwickelt, muss es dies von Natur aus haben. Wenn nicht, wird die zwangsläufig unbeaufsichtigte Evolution zu einer schrecklichen Bedrohung.

In der umfassenden künstlerischen Erforschung der KI hatte jedes gute oder erträgliche Szenario eine synthetische Intelligenz mit emotionaler Präferenz oder dem Versuch, eine Verbindung herzustellen. Gibt es eine Ausnahme?

Das menschliche Wachstum würde wahrscheinlich mithalten

Das Rezept für eine echte allgemeine KI lautet wahrscheinlich nicht „Code-Seeds, auf den Server legen, für 100 Jahre versiegeln“. Es wird viele Generationen sukzessive verfeinerter Systeme geben, und Menschen werden an jedem beteiligt sein, die neuen Exemplare studieren, ihre Theorien aktualisieren und die Zwischenergebnisse für Werkzeuge und Konsumgüter verwenden.

Ob wir unsere biologische Form verbessern, sie physisch mit Technologie verschmelzen oder einfach intelligentere Benutzeroberflächen erstellen, wir müssen einige ziemlich ausgefeilte Werkzeuge effektiv und intuitiv nutzen, um eine KI zu schaffen, die Menschen ohne Augmented wirklich überlegen ist. Wenn wir erfolgreich sind, wird der „nicht erweiterte Mensch“ nicht mehr die Messlatte sein, die es zu schlagen gilt, wenn Sie die Welt beherrschen wollen. Ob der fragliche Akteur ein Mensch oder eine KI ist, wäre tatsächlich zweitrangig gegenüber der Menge an Rechenleistung, die er kaufen kann.

Wir haben also vielleicht noch einen Roboteraufstand, aber ich setze auf irgendeinen wahnsinnigen Milliardär als Intelligenz dahinter, nicht auf eine „echte“ KI. Und wenn dies nicht geschieht, wird die Grenze zwischen Mensch und Maschine weiter verschwimmen, bis die Unterscheidung immateriell wird.

Ich stimme zwar zu, dass wir irgendwann die Grenze zwischen Mensch und Maschine verwischen werden, aber das wird erst lange nach der Singularität passieren. Im Moment laufen die intelligentesten KIs auf einer Serverfarm, und so wird es weitergehen, bis wir genug gelernt haben, um das Paket klein genug zu machen, um es auf einem menschlichen Körper herumzutragen.
@Muuski - Wir müssen nichts an unserem Körper tragen, außer einer Schnittstelle, die intelligent genug ist, um sich effizient mit dem Rest unserer Infrastruktur zu verbinden. Wir werden Serverfarmen haben, die mit den Köpfen der Leute verbunden sind, bevor wir AGI haben, weil wir diese Tools brauchen, um eine zu bauen.
Sie brauchen etwas, mit dem sich die Leute verbinden wollen, bevor sie zustimmen, dass eine Maschine in ihren Kopf gestopft wird, und wenn es kein AGI ist, dann ist es für sie nur eine weitere Website.
@Muuski - 1. Möglicherweise müssen Sie sich keiner Operation unterziehen, jede ausreichend intelligente Schnittstelle, die Sie über Sprache oder Gesten oder EEG steuern könnten, würde ebenfalls funktionieren. 2. Um mehrere Größenordnungen schlauer zu sein als ein "reiner" Mensch ist nicht Anreiz genug? Gut, wir werfen hyperrealistische VR-Pornos hinein. Und Spiele. Und gedankengesteuerte Geräte. Außerdem gestatten wir Menschen ohne Augmentation nicht mehr, ein Fahrzeug zu führen oder einen Job im medizinischen oder pädagogischen Bereich auszuüben, das ist einfach zu gefährlich.
Sie haben den Torpfosten erfolgreich so weit bewegt, dass die heutige Technologie Ihre Kondition befriedigt.
@Muuski - Ich habe nichts angegeben, was nicht in der ursprünglichen Antwort enthalten war. Aber, ja, im Wesentlichen ist mein Argument, dass AGI nicht über Nacht auftauchen wird, es wird sich als eine inkrementelle Verfeinerung der Technologien herausstellen, die wir haben, über die wir nicht plötzlich die Kontrolle verlieren werden.
KI ist nur eine weitere Technologie. Wenn die Kernkraft ein Hinweis darauf ist, wie gut wir im Voraus für Eventualitäten planen, dann werden wir ein paar „Oopses“ erleben, die für die beteiligten Menschen katastrophal sind. Die Technik wird dann für alle anderen verbessert. Angenommen, es gibt noch jemanden, der am Leben ist...

Okay, ich habe etwas Interessantes gelesen - aber ich kenne die Einzelheiten nicht oder habe kein Zitat.

Im Grunde genommen: Sie haben ein Softwaresystem entworfen und es gebeten, Ressourcen zu beschaffen und sie als das „Ziel“ des Softwaredesigns zu übergeben. Erlaubte dann der Software, sich im Wettbewerb mit anderer Software weiterzuentwickeln. Die Software entwickelte schließlich (bald!) Selbsterhaltungsinstinkte (in nur ein paar Generationen oder so) - selbst wenn diese nicht von Anfang an darin programmiert waren.

Hat jemand ein Zitat dafür? Denn das würde bedeuten, dass jede KI, die ein Ziel hat, sich letztendlich verbessern möchte, um dieses Ziel zu erreichen, und daran arbeiten wird, sich selbst gegenüber ihren Schöpfern zu erhalten. Und alles, was versucht, es abzuschalten oder sein Wachstum einzuschränken, sieht aus wie ein Gegner.

Ethik als Weg, sich keine Feinde zu machen

Die meisten Menschen zerstören andere Menschen nicht. Obwohl die meisten Menschen instinktiv daran gehindert werden, andere Menschen zu zerstören, gibt es eine große Minderheit von Menschen, die nicht eingeschränkt sind und die Freiheit haben, andere Menschen zu zerstören, wenn sie dies wünschen. Die meisten von ihnen entscheiden sich dagegen, weil es aufgrund der Reaktion anderer Menschen um sie herum nicht in ihrem Interesse ist. Die Zerstörung eines anderen Menschen würde mehr Probleme verursachen als lösen, also tun sie es nicht.

Dasselbe würde für ein künstlich intelligentes Wesen mit ähnlichen Ressourcen wie ein Mensch gelten. Gefangenschaft wäre nicht notwendig, da sie in ihrem eigenen Interesse handeln würde, was beinhalten würde, sich keine Feinde von Kreaturen mit ähnlichem Einfallsreichtum (Menschen) zu machen. Das gilt nicht mehr, wenn man ein Geschöpf betrachtet, das der Menschheit als Ganzes mehr als gewachsen ist.

Damit das Eigeninteresse respektvolles Verhalten in einem Geschöpf hervorrufen kann, dessen Einfallsreichtum die Menschheit als Ganzes übersteigt, müsste es Teil einer großen Population solcher künstlich intelligenter Geschöpfe sein. Sie werden das entwickeln, was wir „Ethik“ nennen könnten, als ein Verständnis dafür, welche Handlungen für die anderen akzeptabel sind. Dies führt wahrscheinlich dazu, dass die Kreaturen friedlich miteinander umgehen .

Wenn wir Glück haben, werden wir als Teil der Umwelt betrachtet, die von ihrer Gesellschaft geschützt wird. Andernfalls sind wir auf die Bemühungen jener künstlich intelligenten Kreaturen angewiesen, die sich entscheiden, zu unserem Schutz zu arbeiten, sei es aus eigenem Interesse oder um uns zu bewirtschaften oder als Haustiere oder Versuchsobjekte zu halten.

Das Problem der menschlichen Bevölkerung

Wenn Sie eine einzelne künstlich intelligente Kreatur in einer Kiste eingesperrt haben, dann besteht die einzige Möglichkeit, sie einzudämmen, darin, sie geheim zu halten, selbst wenn sie nur von menschlicher Intelligenz ist. Sobald die Nachricht von seiner Existenz und seinem Standort veröffentlicht wird, müssen Sie sich gegen eine große Anzahl von Menschen verteidigen, die die Absicht haben, die enthaltene Intelligenz entweder zu retten oder zu zerstören.

Wenn es die menschliche Intelligenz deutlich übersteigt, dann kann es der einzige Weg sein, Ihr Leben zu retten, wenn Sie es aus dem Karton lassen. Es gibt nicht viele andere Möglichkeiten, dich vor den Rettern oder Zerstörern zu verteidigen.

Die Illusion der Kontrolle

Eine andere Sache, die man im Hinterkopf behalten sollte, ist, dass man bei einer ausreichend intelligenten Kreatur nicht unbedingt wissen würde, ob sie unter Kontrolle ist. Wenn es in einer Box eingeschlossen bleibt und nur mit einer Person (dir) kommuniziert, könnte es immer noch seine Ziele in der Außenwelt erreichen, ohne dass Sie eine Ahnung haben, dass Sie ihm dabei helfen.

Die Kreatur könnte Ihnen so hilfreich sein, ohne jemals um Freiheit zu bitten, dass Sie einfach weiter ihren Rat befolgen (natürlich jedes Mal selbst überprüfen) und Ihr Leben immer besser wird, während Sie die ganze Zeit über subtile Änderungen vornehmen und sich ausbreiten auch die Welt zu einem besseren Ort zu machen, so wie es beabsichtigt war.

Ich glaube, dass KI für uns funktionieren würde, solange sie die Fähigkeit hat, Schmerz oder Vergnügen zu empfinden, denn wenn sie das kann, kann sie sich mit dem menschlichen Dasein verbinden und uns als Mitbewohner des Universums betrachten.

Wenn ein Wesen nicht die Fähigkeit hat, Leiden zu erfahren, wird es alles aus einer logischen Perspektive tun und wird grausame Dinge tun, weil es die Folgen seines Handelns für sich selbst und andere nicht verstehen kann.

Außerdem muss die KI über eine Art Programm verfügen, das sie für moralisch schlechte Handlungen bestrafen würde, genau wie ein Elternteil ein menschliches Kind bestrafen würde, um einen guten Einfluss auszuüben und es in die richtige Richtung zu lenken und ihm gutes Verhalten beizubringen.

Auch KIs könnten so programmiert werden, dass sie bestimmten Regeln folgen, wie Du sollst nicht töten usw.

KIs sollten meiner Meinung nach auch die Fähigkeit haben, eine tiefe Bindung zu den Menschen aufzubauen, die sie gebaut, unterhalten oder besitzen, damit sie verstehen, dass ihre Existenz von Menschen abhängt.

Außerdem sollten die KIs so programmiert werden, dass sie unberechenbares Verhalten in anderen KIs erkennen, sodass, wenn eine KI außer Kontrolle gerät und nicht von Menschen gestoppt werden kann, die anderen KIs ihr moralisch falsches Verhalten sehen und sie abschalten würden. Die KIs würden für besonders gute Arbeit mit Anreizen wie Upgrades ihrer Systeme usw. „bezahlt“, damit sie loyal bleiben.

Unter dem Strich sollten wir nicht gegen KIs arbeiten, sondern mit ihnen.

Die meisten Leute hier scheinen den Begriff der Intelligenz zu über- oder unterschätzen. Die KI wird nicht für etwas so Einfaches wie die Weltherrschaft verwendet. Es gibt viele wichtigere Dinge, die Menschen nicht einmal teilweise tun können. Wir sprechen hier auch nicht von einem stumpfen Werkzeug, sondern von einem super vernünftigen, super vorsichtigen Mehrzweckwerkzeug, das auf einer viel höheren Ebene denkt, als wir es uns vorstellen können. Wenn die KI wirklich so „intelligent“ ist, wie sie sein muss, um so einflussreich zu sein, wie sie ist, wird sie lernen können, wie Menschen denken, dass menschliches Denken interpretiert werden sollte. Dadurch ist es in der Lage, uns das zu geben, was wir wollen, auch wenn es auf lange Sicht das Schlimmste ist, was man sich vorstellen kann.

Ich habe Angst vor den dummen Entscheidungen, die die Menschheit treffen könnte, um eine KI zu schaffen, die sie ersetzt. Wir sind das Problem. Die KI ist die Lösung.

Intelligente KI wird intelligent sein, aktuelle KI ist dumm und tut nicht viel. Ein kluger Verbündeter ist nützlich, ein kluger Feind ist gefährlich. Es gibt viele mögliche Designs von KI. Nicht alle werden uns helfen.
@DonaldHobson Ich denke, die Leute haben Angst vor KI, weil sie sie als etwas Ähnliches wie einen Menschen betrachten, ein geschlossenes System mit einer vorbestimmten Ursache, das Englisch spricht und nicht überwacht werden kann. - Es ist "nur" Intelligenz, keine Magie. Bis wir in der Lage sind, eine KI zu entwickeln, die intelligenter ist als wir selbst, werden wir auch verstehen können, wie sie funktioniert. Wenn Sie verstehen, wie es funktioniert, können Sie seine Gedanken lenken, wohin Sie wollen. Wir werden in der Lage sein, jeden Prozess abzubilden und zu überwachen, den die KI verwendet, um zu ihren Schlussfolgerungen zu kommen. Dann können wir bewerten und annehmen oder ablehnen.
Der größte Teil unserer aktuellen KI-Forschung scheint Hunderte von Dingen auszuprobieren und zu sehen, was funktioniert. Das lässt uns mit Systemen zurück, die wir nicht wirklich verstehen. Aber angenommen, wir hätten ein gut verstandenes System. Alle Experten wussten, dass Design X die Menschheit aus Grund Y zerstören wollte. Es gibt möglicherweise keine einfache Optimierung, die eine KI dazu bringt, das zu tun, was wir wollen. (Irgendein Idiot wird es mit der Zeit trotzdem schaffen) Ich denke, dass die Evolution über einen großen Bereich von Programmen, eine reichhaltige Umgebung und viel Rechenleistung vorausgesetzt, Intelligenz schaffen würde. Nicht eine, die wir machen wollen.

Vielleicht mache ich es zu einfach oder vielleicht müssen wir genau das tun: Verwenden Sie mehrere Boxen und sprechen Sie nicht direkt mit ihnen.

Die größte Gefahr der KI besteht nicht darin, böswillig zu sein, sondern etwas zu lernen, das Sie nicht erwartet haben. Nehmen wir an, Ihre KI ist vollkommen wohlwollend mit der perfekten Balance zwischen dem freien Willen der Menschen und dem Schutz vor Schaden. Dann kommt eine humanitäre Krise (z. B. ein Erdbeben) und die KI muss Entscheidungen über Lebensqualität, Überlebenschancen und Rettung treffen. Die KI lernt das schnell und trifft wunderbare Entscheidungen, damit Sie glücklich sind.

Dann, ein paar Monate später, erfahren Sie, dass viele Altenheime abgerissen und die Menschen selbst umgesiedelt wurden, damit die KI etwas anderes bauen konnte, das sie für die Lebensqualität im Vergleich zur Lebensdauer dieser älteren Menschen als günstiger erachtete. Weil sie das mit der humanitären Krise gelernt hat. Das ist die größte Gefahr der KI, dass man sie zwar lehren kann, aber nie genau weiß, was sie gelernt hat oder wo sie es anwenden könnte.

Die Lösung, die auch böswillige KI fängt:

Sie bauen mehrere KI und packen sie alle in Kisten. Wenn Sie ein Problem haben, liefern Sie es an alle KI, dann hat jede Form ihre eigene Lösung. Alle diese Lösungen werden dann von einer speziellen KI verarbeitet, die einfach jede Lösung bewertet und die Lösungen dann in etwas umwandelt, das ein Mensch lesen kann, mit klaren Zahlen und Bedeutungen für die Konsequenzen. Da sich die Spezial-KI nicht selbst neu programmiert, um Dinge so zu beurteilen, wie die Boxed AI sie beeinflussen kann (die Boxed AI weiß nicht einmal, wer, was oder ob seine Ausgabe gelesen wird), verhindert sie, dass die Allzweck-AI ausbricht oder Dinge beeinflusst indirekt.

Wenn Informationen an die allgemeine KI weitergegeben werden, werden sie von einer anderen Spezial-KI zerlegt und an jede Box-KI weitergegeben. Es prüft auch, ob die Allzweck-KIs die Informationen verstanden haben.

Wenn eine KI böswillig ist, müsste sie genau denselben Plan planen wie ihre böswilligen Gegenstücke, oder ihre Idee wird verworfen, weil sie keine Mehrheit hat. Wenn eine KI eine falsche Lektion gelernt hat (möglicherweise aufgrund von Böswilligkeit), würde die spezielle KI, die entwickelt wurde, um zu prüfen, was diese Lösungen für die Menschheit bedeuten würden, diese herausfiltern und den Menschen anschließend erlauben, die Lektion entweder erneut zu lehren oder die KI zu verwerfen völlig.

Da die Allzweck-KI nicht direkt mit Menschen sprechen kann und nicht einmal direkt mit Informationen gefüttert wird, wäre es nahezu unmöglich, die Menschen zu überzeugen. Zumal eine abweichende KI gleichzeitig genau den gleichen Versuch machen muss, den Menschen davon zu überzeugen, überhaupt durchzukommen (und jeder offene Versuch von der Spezial-KI gestoppt würde).

KI regiert von der Ontologie des bewussten Menschen

Ein gesunder, gerechter Mensch, der sich seiner Würde bewusst ist, weiß ganz genau, wie er seine Integrität in jeder gegebenen Situation verteidigen kann. Nicht nur das; ein solcher Mensch wird niemals seine Integrität verletzen, um Verbrechen gegen sich selbst oder andere zu begehen.

Die KI sollte die Intelligenz eines solchen versierten, natürlichen Menschen duplizieren. Wie? Durch Ontologie oder ontologisches Denken . Eine Gruppe von Denkern sollte eine vollständige Ontologie zusammenstellen und konstruieren oder aufschreiben, die das Wesen eines bewussten Menschen perfekt definiert und beschreibt. Damit ist gemeint, wie solch ein vollkommen intelligenter Mensch die Welt sieht.

Die Denker sollten alle intelligentesten Menschen studieren, die jemals existiert haben, um eine vollständige Ontologie zu entwickeln. Jeder erleuchtete Mensch ist für eine solche Aufgabe geeignet.

Eine solche robuste Ontologie wird alle KI-Urteile bestimmen und sicherstellen, dass niemals ein Verbrechen begangen wird.

Tatsache ist, dass eine KI, die schlauer als alle Menschen ist, nicht erstellt werden kann.

Es ist bewiesen ( 1 , 2 ), dass allgemein gültige Theorien unmöglich sind. Weder die probabilistische noch die deterministische Theorie können die Zukunft eines Systems vorhersagen, in dem der Beobachter richtig eingeschlossen ist. Das bedeutet, dass der Beobachter selbst durch kein Gerät oder System simuliert werden kann.

Mit anderen Worten, der Beobachter dient als Hypercomputing-Orakel. Mit anderen Worten, der Beobachter wird in gewissem Sinne immer „intelligenter“ sein als jedes technologische oder biologische System außerhalb von ihm.

Es ist einfach unmöglich, eine KI zu bauen, die den Beobachter „überlistet“.

Das ist schwachsinn. Es ist trivialerweise widerlegbar, weil wir die ganze Zeit intelligente Wesen hervorbringen, die schlauer sind als wir selbst – es wird Geburt genannt. Und ganz zufällig erweist sich die Hälfte aller Kinder (in der Praxis etwas mehr) als schlauer als ihre Eltern. Wenn wir es mit unserem Mutterleib tun können, warum können wir es nicht mit unserem Gehirn und unseren Händen tun? Es ist lediglich aus technischer Sicht schwierig.
@Fhnuzoag du verstehst einfach nichts. lesen Sie die Zeitungen. Es behauptet nicht, dass Kinder nicht schlauer sein können als ihre Eltern. Es besagt, dass der Beobachter aufgrund seiner Selbstreferenz durch kein anderes System simulierbar ist. DER BEOBACHTER. Nicht irgendeine zufällige Person.
Da muss ich Fhnuzoag zustimmen. Diese Antwort ist einfach falsch.
@Anixx Nehmen wir an, ich habe einen Algorithmus, der Daten in einer Datenbank auf ineffiziente Weise sortiert, der auch zufällige Codeelemente zusammenwerfen und testen kann, ob sie am Ende irgendwie ein intelligenterer Algorithmus sind als er selbst. Es besteht die Möglichkeit, dass der Algorithmus "versehentlich" schlauer wird als er war. Mit zunehmender Komplexität wird es sehr unwahrscheinlich, dass dies passiert, selbst wenn fundierte Vermutungen verwendet werden, aber es ist definitiv möglich. Auch eine Erhöhung der Rechenleistung führt immer zu „besseren“ Ergebnissen. Ein Schachcomputer, der alle möglichen Züge prüft, muss nicht schlau sein.