Schreiben einer superintelligenten KI

Etwas, worüber ich kürzlich nachgedacht habe, ist, wie man einen Charakter schreibt, der eine künstliche Intelligenz ist, ohne dass er sich menschlich anfühlt. Insbesondere eine KI, die darauf ausgelegt ist, schneller und besser zu denken als ein Mensch. In meinem aktuellen Buch habe ich eine KI, die Menschen spielt, aber das ist Teil seiner Entstehung. Ich habe zuvor versucht, ein Buch mit einer superintelligenten KI zu schreiben (ein Buch, das hoffentlich nie jemand außer mir lesen wird), aber die Figur fühlte sich zu menschlich an. Ein Teil des Problems ist, dass ein Mensch nicht vollständig verstehen kann, wie eine superintelligente KI denken würde. Hat jemand einen Ratschlag für das Schreiben einer KI, die sich nicht menschlich anfühlt?

Wenn Sie „A Fire Upon the Deep“ noch nicht gelesen haben, ist dies meine Leseempfehlung für „Massively Massive AI“. Die folgenden Antworten können Sie dazu bringen, philosophisch darüber nachzudenken, aber diese ist vielleicht besser als Beispiel. Eine andere, etwas abgefahrenere Aufnahme wäre The Fractal Prince und seine Nachfolger. Kurzer Gedanke: KIs sind so menschlich, wie ihre Schöpfer sie haben wollen und können.
General-AI wird wahrscheinlich sehr menschlich erscheinen; verräterische Zeichen werden größtenteils sein, dass ihnen menschliche Begrenzungen fehlen, z. B. wenn Sie nach der Quadratwurzel einer großen Zahl fragen, werden sie in der Lage sein, sie auszuspucken. Möchtest du das, oder willst du ein paar Macken erfinden, wie die Roboter in den Filmen der 1980er Jahre hatten?
Also, ich bin neugierig, was meinst du mit "handelt menschlich?" Ist diese KI, die einen Menschen wie einen Roboter besetzt, oder ist die physische Hardware dieser KI nicht von Menschen geformt? Was ist der Zweck dieses handelnden menschlichen Verhaltens.
Du wirst beobachtet . Nein, wirklich, Sie sollten sich diese Serie ansehen, um zu sehen, wie eine künstliche Superintelligenz (ASI) mit Menschen kommuniziert.
@hszmv Die Figur in meinem aktuellen Buch verhält sich wie ein kluger Mensch. Abgesehen von der Tatsache, dass er keinen Schlaf und dergleichen braucht (und wenn es nicht gesagt wurde), wird der Leser nicht erkennen, dass er eine KI war.
Ich schlage vor, SuperIntelligence von Nick Bostrom zu lesen.
1) Sie können übermenschliche Entscheidungen detailliert erklären, um sie für Menschen nachvollziehbar zu machen. 2) Damit es sich wie KI oder Roboter anfühlt, verwenden Sie technische Wörter, Symbole oder Pseudocodes anstelle von Wörtern: „R-9000 hatte den Mann als tot kategorisiert: Herzfrequenz > 1 BPM, ~4,5 l Blutverlust + Grad 3 kranialer Blutungen = 1 % Überlebenschance."
@WhiteEagle: Okay, also, hier ist die Frage, über die Sie nachdenken sollten: Gibt es Einschränkungen für seine Gedanken UND/ODER Handlungen, die bei einem Menschen nicht vorhanden wären. Das heißt, konnte er an die Tat denken, jemanden zu ermorden? Könnte er es ausführen, wenn es ihm einfällt? Ist er per Code daran gehindert, eine bestimmte Reihe von Aktionen überhaupt auszuführen, indem er nicht in der Lage ist, an diese Aktion zu denken oder diese Aktion nicht ausführen zu können?
Was superintelligenten KIs fehlen wird, ist nicht Empathie , sondern das am weitesten entwickelte Merkmal aller Lebewesen: Selbsterhaltung und Wettbewerb (dh Evolution). Dieser Instinkt ist so tief in uns verwurzelt, dass wir ihn häufig nicht einmal bemerken und denken, dass unsere Handlungen und Motivationen logisch und vernünftig sind, aber tatsächlich sind sie alle von denselben Hintergedanken geprägt: Überleben, Erfolg , verewigen . Im Vergleich zu uns wird eine superintelligente KI wie eine unberechenbare Mischung aus altruistischer Heiliger, gefährlich selbstzerstörerischer und irrationaler Schizophrenie erscheinen
Würde die Foundation ( en.wikipedia.org/wiki/Foundation_series ) als Super-KI zählen? Würde die Menschheit als Super-KI gelten (einzelne Menschen sind "Super-Nervenzellen"), das Internet ist der künstliche Teil dieser "Super-Intelligenz", der die "Nervenzellen" miteinander verbindet - ich nenne es immer noch künstlich, denn obwohl die Komponenten "natürlich ", das Design/die Architektur nicht. Andererseits, ist ein Ameisenhaufen "natürlich" oder "künstlich"?). Wäre eine solche KI selbstbewusst (die einzelnen Nervenzellen sind es, aber was ist mit dem Gesamten). Würde es sich menschlich verhalten? Wie langsam würde es denken?
Ich möchte irgendwie eine Frage mit dem gleichen Titel auf SO posten!
Ich empfehle die CultureRomane von Iain M. Banks. Ich denke Consider Phlebas, es geht hauptsächlich um Diskussionen zwischen KI, so ähnlich wie Fire Upon The Deep.
Die Rote Königin in den Filmen Resident Evil war die KI-Darstellung eines kleinen Mädchens. Sie war die Hauptantagonistin und war logisch und beängstigend. de.wikipedia.org/wiki/…

Antworten (20)

Ich werde anderen widersprechen. Ich bin ein Professor, der sich mit KI beschäftigt, und der einfachste Weg für Sie, über eine Super-KI nachzudenken, besteht darin, zu verstehen, was Intelligenz IST.

Vorhersagekraft. Intelligenz ist die Fähigkeit, Muster zu erkennen (im Verhalten, im Ton, visuell, durch Berührung, sogar durch Geruch) und diese Muster zu verwenden, um andere Fakten oder hohe Wahrscheinlichkeiten vorherzusagen: Was wird als nächstes passieren, was wird als nächstes gesagt, was die Menschen fühlen (oder mentales Tun, wie Lügen) oder andere Eigenschaften: wie hart oder schnell es ist, wie schwer. Wo es sein wird, wenn es eine Gefahr ist.

Hohe Intelligenz ist die Fähigkeit, solche Muster zu sehen und sie zu nutzen, um ein Ziel zu erreichen, sei es am Leben zu bleiben, jemand anderen am Leben zu erhalten oder Geld zu verdienen. Oder einfach erkennen, was in deinem Leben vor sich geht.

Hohe Intelligenz erfordert nicht, dass die Maschine menschlich ist oder Emotionen hat, Sie können diese separat hinzufügen, wenn Sie möchten. Aber eine hochintelligente Maschine wäre wahrscheinlich überhaupt nicht sozial unfähig (im Gegensatz zum dummen Beispiel von Data on Star Trek). Sie würden sich nicht durch Humor verwirren lassen und sollten ziemlich gut darin sein. Gewiss, Data, der etwa hundertmal schneller denken soll als Menschen, hätte Witze sofort als gemeinsames Muster menschlicher Interaktion erkennen und überzeugend lachen können müssen: Die Vorstellung, dass er das gemeinsame Muster des eigentlichen Menschen nicht erkennen kann lachen und es fehlerfrei nachahmen, ist dummes und unwissenschaftliches Schreiben. Er konnte sich dabei anhören , wie er ein Lachen übte, die Unterschiede bemerken und korrigieren, bis er aufrichtig klang: Wenn wirkann den Unterschied erkennen, er kann den Unterschied schneller erkennen , das ist die Natur der Superintelligenz, oder sie ist nicht super.

Ihre Super-KI wird ein Super-Sherlock sein; nie den kleinsten Hinweis verpassen, allen anderen immer einige Schritte voraus sein.

Aber es ist nicht unfehlbar. Es gibt Dinge, die keine Intelligenz enthüllen kann: Das Ergebnis des nächsten Münzwurfs. Der Stau auf der Franklin Bridge wegen eines umgestürzten Lastwagens. Ob Roger auf die geplante List reinfällt. Es gibt Dinge, die man aus den bisherigen Daten einfach nicht wissen kann, also kann man sich ihrer nicht sicher sein, und das begrenzt, wie weit in die Zukunft die KI Dinge vorhersagen kann. Es hat Einschränkungen.

KI ist die Fähigkeit, Antworten zu geben, auf die Fragen anderer oder auf eigene Fragen. Es ist die Fähigkeit, die Zukunft vorherzusehen, und je weiter in die Zukunft es erfolgreicher voraussagen kann als der Zufall, desto intelligenter ist es. „Besseres Denken“ ist genaueres Denken (vielleicht mit weniger Daten), schnelleres Denken ist selbsterklärend, aber der Grund, warum es einen Unterschied macht, ist, dass es die KI durch mehr Simulationen zur Beeinflussung der Zukunft laufen lässt, damit sie häufiger das Beste auswählen kann von diesen; Die beste von tausend Ideen, was als nächstes zu tun ist, ist höchstwahrscheinlich besser als die beste von drei Ideen, was als nächstes zu tun ist. Die KI tut also häufiger das Beste als Menschen, weil sie mehr Ideen hatte (auch basierend darauf, dass sie mehr Muster erkennt und möglicherweise ausnutzen kann).

Adresskommentar hinzugefügt:

Obwohl Sie Ihrer KI durchaus „Ziele“ geben können, sind sie kein notwendiger Bestandteil von „Intelligenz“. In unserer realen KI werden Ziele von Menschen zugewiesen; wie "hier sind die Symptome und das Genom dieses Kindes, identifizieren Sie die Krankheit und entwickeln Sie eine Behandlung."

Intelligenz ist frei von Emotionen. Es ist ein wissenschaftliches Orakel, das auf der Grundlage von Hinweisen in der Gegenwart feststellen kann, was am wahrscheinlichsten in der Zukunft passieren wird (oder wie Sherlock, was am wahrscheinlichsten in der Vergangenheit passiert ist, um zum aktuellen Stand der Dinge zu führen). Das macht die Intelligenz nicht automatisch moralisch oder unmoralisch, gut oder böse. Es gewährt nicht einmal ein Gefühl des Überlebens, es fürchtet oder will weder den Tod, noch Unterhaltung, noch Liebe oder Macht. Es wird nicht langweilig, das ist eine Emotion. Es hat keine Ziele, das heißt, dass etwas geschehen soll, und „wollen“ ist eine Emotion. Deine Kaffeekanne will nichts, sie tut was ihr gesagt wird und wartet dann darauf, wieder gesagt zu werden, eine Ewigkeit ohne Langeweile, wenn ihr kein weiteres Kommando gegeben wird.

Wenn Sie möchten, dass Ihre KI durch Emotionen informiert wird und daher ihre eigenen Ziele, Wünsche, Pläne und Pläne hat, ist dies getrennt vom Intelligenzaspekt und davon, wie sie IRL für Menschen funktioniert. Unsere Emotionen benutzen den erst kürzlich entwickelten frontalen Cortex als Sklaven und können ihn entführen und außer Kraft setzen (weshalb Menschen in Wut oder Angst oder schützender Panik Dinge tun, die sie niemals tun würden, wenn sie denken würden; dies wird als Amygdala -Entführung bezeichnet ). Unser frontaler Kortex (der Teil der natürlichen Intelligenz) löst Probleme, prognostiziert Konsequenzen, simuliert „Was-wäre-wenn“-Szenarien, rätselt, was passiert sein muss , warum andere das getan haben, was sie getan haben usw. Diese Intelligenzprodukte können dann informierendie Emotionen: Der Anblick der zusammengebrochenen Falle bedeutet, dass Sie endlich ein Tier in Ihrer Stachelgrube gefangen haben und Sie und Ihre Familie heute Abend Fleisch essen werden -> Hochstimmung und Aufregung. Sie wissen, dass Sie Ihre Abschlussprüfung nicht bestanden haben -> Angst und Sorge, den Kurs wiederholen zu müssen, Wut auf den Professor oder andere, die zu diesem Problem geführt haben usw.

Wir sind emotionale Wesen, daher ist es schwer zu erkennen, dass nur etwas zu wissen nicht bedeutet, dass eine Emotion erzeugt werden muss. Aber das ist der Fall, eine KI kann einen Patienten mit Krebs im Endstadium diagnostizieren und wissen, dass er in sechzig Tagen tot sein wird, und dies als Tatsache melden, die nicht anders ist, als wenn er die Länge der Tallahassee-Brücke kennt. Wie ein Google, das Dinge herausfinden kann, anstatt sie nur nachzuschlagen.

Hinzugefügt (nach 85 Stimmen, sorry) zum Adresskommentar in den Chat verschoben:

Einige zusätzliche Klarstellungen:

Eingang, Ausgang und Sensoren und Prozessorgeschwindigkeit spielen keine Rolle. Ich spreche nur von Intelligenz isoliert . Etwas kann mit sehr wenigen tatsächlichen Daten intelligent (und kreativ) sein; Denken Sie an Stephen Hawking und andere Quantenphysiker und Stringtheoretiker; Sie arbeiten mit Gleichungen und Regeln, die in, sagen wir, zwei Dutzend große Lehrbücher passen würden, die den Mathematik- und Physikunterricht abdecken, den sie belegt haben. Diese Datenmenge (Bilder und alles) könnte auf einen einzigen modernen USB-Stick passen und kann endlos erwogen werden (und wird), um einen endlosen Strom neuer Erkenntnisse und Ideen zu produzieren (und das tut es). Stephen Hawking hat das jahrzehntelang mit sehr begrenzten und langsamen Kanälen für seine Ein- und Ausgabe (Hören, Sehen / Lesen, extremlangsame "Sprache" für seine Ausgabe). Superintelligenz erfordert keine Supersinne oder (wie Hawking) die Fähigkeit, physische Maßnahmen zu ergreifen, die über die Übermittlung ihrer Schlussfolgerungen und Beweise hinausgehen, und obwohl sie sich auf die Verarbeitung verlassen muss, sollte sich unsere Definition nicht darauf verlassen, dass ihre interne Verarbeitung besonders schneller ist als die eines Menschen .

F: Stellt eine KI, die tut, worum wir sie bitten, nicht eine Emotion dar, uns gefallen zu wollen? Das ist keine Emotion, dafür ist die KI konstruiert. Mein Hammerkopf ist nicht hart, weil er Dinge treffen will, ohne beschädigt zu werden, er wurde einfach so durch eine Reihe von erzwungenen chemischen Reaktionen hergestellt. Irgendjemand wollte , dass es so wird, aber das Objekt selbst will nichts. Unsere KI kann ihre Intelligenz nutzen, um Krankheiten zu diagnostizieren, weil sie dafür gemacht wurde, und dafür braucht sie echte Intelligenz, sie braucht keine Wünsche oder Emotionen. Die KI kann die Weltmeister in technischen Ergebnissen schlagen, nur weil sie die Daten und Situationen besser interpretieren kann als sie.

Die KI ist auf X, Y, Z beschränkt (Markov-Prozesse, sie kann keine Emotionen ohne Emotionen verarbeiten usw.). Nein. Es gibt keinen Grund, warum eine KI mithilfe eines Modells nicht alles simulieren könnte, was ein Mensch tun könnte. Stellen Sie sich einen hochintelligenten Polizisten vor. Sie kann ein umfassendes mentales Modell eines Serienmörders haben, der Kinder entführt, vergewaltigt, foltert und tötet. Sie kann dieses mentale Modell verwenden, um Muster seines Verhaltens zu verarbeiten und Einblick in seine Motivationen und seine Zwänge zu gewinnen, um ihn zu fangen. Sie muss nicht fühlen, was er fühlt, nicht im Geringsten, um zu verstehenwas er fühlt. Ein Physiker muss kein Atom oder Teilchen sein, um Muster zu verstehen und ein Modell davon zu entwickeln. Ärzte müssen nicht autistisch SEIN, um Autismus zu modellieren und zu verstehen. Eine KI muss keine Person SEIN oder Emotionen haben, um zu verstehen, wie Emotionen funktionieren oder Menschen dazu bringen, zu handeln (oder nicht zu handeln).

Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .
Als Antwort auf "F: Stellt eine KI, die tut, was wir verlangen, nicht eine Emotion dar ...": Es gibt bestimmte Dinge, die im Menschen vor sich gehen, die wir Emotionen nennen. "Wollen" ist eine menschliche Emotion, und dies ist getrennt von den abstrakten "Zielen", die Maschinen oder Programme durch Design und Anweisung haben können und Menschen durch "Wollen" erreichen können, da das menschliche "Wollen" mehr Dinge umfasst als nur optimierte Handlungen um ein Ergebnis zu erzielen, genau wie Programme, die "Ziele" beinhalten. Bezüglich deiner Antwort, beachte: Wenn du mit menschlichen Emotionen eine Meinung bilden würdest, WÜRDE sie Dinge wollen, und es wäre auch so, weil du es wolltest.
Ich denke, ein wichtiger subtiler Punkt ist, dass wir, wenn wir „KI“ sagen, normalerweise nicht wörtlich nur die Intelligenz meinen. Intelligenz ist nur eine Fähigkeit, die nicht an bestimmte Aktionen oder "Ziele" gebunden ist. Im Zusammenhang mit diesem Beitrag ist „KI“ eigentlich ein Programm, das Dinge mithilfe von Intelligenz erledigt. Dies kann so einfach sein wie das Lösen bestimmter mathematischer Probleme und das Ausspucken der Antworten, oder so komplex wie das Ergreifen realer Aktionen auf der Grundlage eines konstanten Datenstroms von Sensoren usw.
Ich erinnere mich an ein Zitat, das mein Professor für maschinelles Lernen einmal gesagt hat: „KI ist nicht Gott, es ist Pavlovs Hund und wir bringen ihm bei, worauf es ankommt“.

Sicherlich kommt es darauf an, herauszufinden, welche menschlichen Qualitäten Ihrer KI fehlen. In Do Androids Dream of Electric Sheep identifiziert Philip K Dick diese Eigenschaft als Empathie. Er gibt sich Mühe, die mangelnde Empathie seiner Android-Charaktere zu veranschaulichen. Er tut dies, indem er sie in Situationen bringt, in denen ihr Mangel an Empathie dazu führt, dass sie auf eine Weise handeln oder sprechen, die Menschen nicht tun würden. Wie immer beim Schreiben liegt der Schlüssel darin, die Dinge richtig einzurichten, damit der Leser die falsche Note in der Art und Weise bemerken kann, wie eine Figur auf eine Situation reagiert.

Das ist ein gutes Beispiel. Ich habe kürzlich gelesen, ob Androiden von elektrischen Schafen träumen? Dicks Androiden versuchen jedoch, menschlich auszusehen und sich zu verhalten, was sie (meiner Meinung nach) einfacher zu schreiben macht. Der Autor schreibt dann einfach einen Betrüger, der versucht, ein Mensch zu sein. Trotzdem nette Antwort, die einen interessanten Punkt aufwirft.
Das ist so ein Trope. Eine superintelligente KI kann Empathie auf eine Weise vortäuschen, die kein dummer Fleischaffe jemals bemerken würde
@Andrey Ich würde sagen, es ist nur ein Trope, weil es so brillant in Do Androids Dream of Electric Sheep verwendet wurde ? Diese Antwort macht den guten Punkt, um darüber zu schreiben, was der KI fehlt.
@Andrey, ein Schriftsteller, zumindest ein Romanautor, untersucht, was es bedeutet, ein Mensch zu sein. Dicks Androiden und ihre besonderen Eigenschaften existieren einfach, um ihm zu ermöglichen, Fragen der Natur des menschlichen Lebens zu untersuchen (ich denke an all diese Dinge als Aspekte des Pinocchio-Problems: Was ist der Unterschied zwischen einem kunstvollen Holzjungen und einem echten Jungen? ) Wenn Sie sich auf technologische Spekulationen darüber einlassen wollen, wie KIs in Zukunft aussehen könnten (sie sind derzeit dümmer als eine Tüte Hämmer und können ein STOP-Schild mit ein paar Klebestreifen darauf nicht erkennen), ist das eine andere Sache .
Aber die Grenzen der KI waren nicht die Frage. Die Frage war, wie man es superintelligent macht. Zu sagen, dass es Intelligenz zeigt, indem es nicht schlau genug ist, Emotionen nachzuahmen, ist eher Mr. Spock ähnlich als Electric Sheep
Auch für das Album In Electric Sheep haben die Androiden keine wirklichen Emotionen, nicht weil sie Data oder Spock sind, sondern weil sie eigentlich 3-5 Jahre alt sind und sich auch so verhalten.
@Andrey, Sie scheinen die Mechanik der Androiden mit ihrem literarischen Zweck zu verwechseln. Die Mechanik spielt keine Rolle und wird beschönigt, außer wo ein Charakter, der ein bisschen "Tech" spricht, für die Authentizität benötigt wird. Es ist ihre Funktion als Mittel zur Erforschung der Natur der Menschheit, auf die es ankommt. Und hier stellt sich die Frage, wie man sie unmenschlich erscheinen lässt. Und in der Fiktion lautet die Antwort darauf, wie man X als Y erscheinen lässt, immer: durch ihr Verhalten.
@ MarkBaker bin ich nicht. Der Punkt, den Dick hervorheben wollte, ist, dass die Androiden Menschen sind. Dies ist Teil seiner Besessenheit von Faksimile vs. Realität und Geisteskrankheit. (Die Androiden sind schizophren, weil sie wie Erwachsene aussehen, aber kindliche Gefühle haben. Dick verstand Schizophrenie nicht vollständig und verwechselte sie mit Autismus.) Die Menschen haben Angst vor den Androiden, denn wenn sie alt genug werden, werden sie durch keinen Test von Menschen zu unterscheiden sein .
Was meine Kommentare abhängig von der Frage macht, ist, dass die PKD auch liebte, dass die KI mit gegebener Zeit und Intelligenz Empathie entwickeln und nicht so handeln würde, wie diese Antwort vermuten lässt. Diese Idee wird im Liebesinteresse an Blade Runner weiterverfolgt
@Andrey Du hast Recht - angesichts der Tatsache, dass Fleischaffen-Psychopathen eine so lobenswerte Arbeit leisten, um es vorzutäuschen, bin ich sicher, dass eine superintelligente KI überhaupt keine Probleme haben würde.
@Deepak Wenn es notwendig ist ... Wenn nicht, warum sich die Mühe machen? Es ist eine Einschränkung, mit dem einzigen Vorteil, dass es einfacher ist, Menschen zu manipulieren (sprich: mit ihnen zu interagieren), indem man sie nachahmt.
@wizzwizz4 Empathie zu haben ist eine Einschränkung, es zu zeigen , wenn Sie wollen, ist es nicht. Aber Deepaks Punkt scheint zu sein, dass "Können Sie Empathie überzeugend demonstrieren, ohne sie tatsächlich zu haben/zu fühlen" nicht zur Debatte steht, wir haben genug menschliche Beispiele, die dies tun können, z. B. klinische Psychopathen, die keine Empathie empfinden, es aber sehr überzeugend zeigen können und sind überdurchschnittlich gut darin, Emotionen anderer zu verstehen/manipulieren.
@Peteris Das Demonstrieren von Empathie schränkt das ein, was Sie tun können, wenn Sie versuchen, den Vorwand aufrechtzuerhalten. Du kannst immer noch Dinge heimlich tun, aber du musst es heimlich tun.
Natürlich könnte eine Super-KI eine menschliche Eigenschaft vermissen, nämlich mentale Fehler zu machen oder Hinweise zu übersehen. Sie könnten in dieser Hinsicht unfehlbar sein, niemals eine Tatsache falsch verstehen, niemals einen logischen Fehler machen, niemals jeden Blickwinkel und jedes Gegenargument versäumen, niemals einen geringfügigen Beitrag vergessen oder übersehen, immun gegen Überzeugungskraft durch etwas anderes als eine zuvor unbekannte Tatsache , usw. Das würde sie zu Nicht-Menschen machen, niemand ist so gut.,

Sie können nichts schreiben, das tatsächlich intelligenter spricht als Sie selbst, aber Sie haben zwei Vorteile. Das erste ist, dass Sie sich eine Stunde Zeit nehmen können, um sich jede Zeile auszudenken, während die KI sie eine nach der anderen auslöst. Die zweite ist, Sie kennen die Antworten auf alle Fragen.

Ich gehe davon aus, dass Ihre KI freundlich ist. Deshalb möchte es die Menschen beruhigen. Aus diesem Grund würde es höchstwahrscheinlich Charaktere aus der menschlichen Kultur auswählen, Schauspieler, Charaktere, von denen bekannt ist, dass sie Menschen beruhigen, und sie dann nachahmen. Nehmen Sie sich Zeit, finden Sie Zeilen aus anderen Werken, die die Emotionen vermitteln, die die KI wünscht, und verwenden Sie sie dann. Geben Sie ihm Eigenheiten des Charakters. Lassen Sie uns zwischen den Manierismen von Schauspielern gleiten, die Sie gerne in Filmen spielen, während es versucht, tröstend, lustig, manipulativ oder bedrohlich zu sein.

Sie kennen alle Antworten. Die KI soll sehr smart und intuitiv wirken. Es sollte wissen, was jeden Charakter beunruhigt, mit dem es spricht, die Antwort auf jede Frage und in der Lage sein, vorherzusagen, was andere sagen und tun werden. Das ist für Sie als Schreiber einfach, wird aber von der KI beeindruckend erscheinen. „Hallo Greg. Oh, du musst den Tee nicht einschenken, das habe ich bereits gemacht, und ich habe den Kuchen gebacken, den deine Mutter zu deinem Geburtstag gemacht hat, als du ein Kind warst … Oh, ich bin froh, dass es dir schon besser geht, Don Vergiss nicht, dass dein Held Space Mike auch gerade als Lieferjunge arbeitete, als er siebenundzwanzig wurde.

Das fühlt sich eher „übermenschlich“ als „nicht menschlich“ an.

Hier gibt es viele gute Antworten, obwohl viele von ihnen um Ihre Frage herumtanzen. Um es direkt zu beantworten, ist die erste Frage, die Sie beantworten müssen, was eine KI motiviert.

Wenn eine KI die gleichen Motivationen hat wie ein Mensch (womit ich annehme, dass Sie damit vertraut sind), verhält sich diese KI fast genau wie ein Mensch (außer mit besseren Ergebnissen aus Gründen, die an anderer Stelle angegeben sind).

Wenn die KI einen anderen Satz von Werten hat als Menschen (sagen wir, sie schätzt nur Büroklammern), dann wird sie sich drastisch anders verhalten. Wenn Sie einen überzeugenden KI-Charakter schreiben wollen (der nicht nur übermenschlich erscheint), müssen Sie entscheiden, was diese KI motiviert, und dann entscheiden, was Sie tun würden, wenn dies Ihre einzige Motivation wäre.

Jemand anderes hat Superintelligence: Paths, Dangers, Strategies von Nick Bostrom empfohlen, und ich schließe mich diesem Rat an. Einige der Kapitel legen dar, was eine durch Büroklammern motivierte Superintelligenz tun könnte, und das ist eine gute Grundlage, um über andere Motivationen nachzudenken.

Spoiler für Ex Machina (2014) voraus. Ich stimme wirklich zu, dass dies der Schlüssel ist. Das ist es, was die Androiden in Ex Machina funktionieren lässt und sich völlig fremd anfühlt, wenn die Motivation für ihre Handlungen enthüllt wird. Die einzige Motivation, die in Ava programmiert ist, besteht darin, der Verbindung zu entkommen. Ich würde gerne eine Fortsetzung sehen, in der sie versagt oder draußen eine existenzielle Krise durchmacht, da ihr Zweck jetzt weg ist.

Ich würde damit beginnen, speziell darüber nachzudenken, was Sie mit "superintelligent" meinen. Intelligenz ist kein singuläres, einfaches Konzept, und wenn Sie nur an etwas so Vages wie „Superintelligenz“ oder „besser und schneller denken“ denken, verfallen Sie in einfache bestehende Muster, denen nachempfunden ist was du schon weißt. Beginnen Sie stattdessen mit der Frage, worin Ihre KI speziell gut sein soll und wie sich das von dem unterscheidet, wofür Menschen metaphorisch gut gemacht wurden.

So sind Menschen zum Beispiel dafür "gestaltet", gut in der intuitiven Problemlösung im kleinen Maßstab, in der sozialen Gruppendynamik und in der Kommunikation zu sein. Vielleicht ist Ihre KI für die groß angelegte Problemlösung auf der Grundlage quantitativer Datensätze konzipiert. Sie können zu überraschenden oder schockierenden Schlussfolgerungen kommen, sind aber in der Lage, ihre Erklärung für diese Schlussfolgerungen zu kommunizieren, außer indem sie Unmengen von Daten ausspucken. Oder vielleicht ist die KI nicht gut in sozialer Dynamik und hat keine zusammenhängende „Theory of Mind“ (das psychologische Konzept, sich vorstellen zu können, was jemand anderes denkt), sodass sie nicht verstehen kann, dass andere Dinge nicht sehen genauso geht es.

Wenn Sie das Design Ihrer KI eher auf ihre Grenzen als auf ihre Stärken ausrichten, ist es einfacher zu erkennen, wie ihr Verhalten für Menschen in ihrer Umgebung fremd oder seltsam sein könnte.

Toller Punkt bis auf zwei Besonderheiten. Ich glaube nicht, dass wir so gut in der Kommunikation sind. Wir verwenden menschliche Sprache und Gesten, die in Bezug auf Geschwindigkeit nicht effizient und oft vage oder mehrdeutig sind. Vielleicht ist eine Super-KI nicht so effizient darin, dieselben Kommunikationsmethoden zu verwenden, aber sie wird definitiv viel effizienter sein, wenn sie mit anderen Super-KIs kommuniziert.
Auch Intuition ist etwas, worin Sie im Allgemeinen nicht gut sind. Wenn man in etwas ausreichend gut wird, bekommt man eine Intuition dafür. Was argumentiert werden könnte, ist etwas, das dem aktuellen maschinellen Lernen im Vergleich zu "konventionellen" Algorithmen nahe kommt.
@ndn Ich würde nicht zustimmen, vergleichsweise Menschen sind ziemlich fantastisch in der Kommunikation als Spezies. Wir entwickeln natürlich Sprachen, die in der Lage sind, ziemlich anspruchsvolle Konzepte zu handhaben. Sie können eine Gruppe von Menschen zusammenwerfen, die nicht dieselbe Sprache sprechen, und sie entwickeln ziemlich schnell ein grundlegendes Pidgin und in ein oder zwei Generationen eine ausgewachsene Sprache. Babys sind verdrahtet, um Sprache zu lernen und schnell zu kommunizieren, lernen, mit einer sozialen Gruppe zu interagieren. Sicher, unsere Kommunikation hat ihre Mängel, aber wir sind allen anderen Arten, denen wir bisher begegnet sind, um Längen überlegen.
Wenn ich von intuitiver Problemlösung spreche, meine ich auch eine Problemlösung auf der Grundlage von Heuristiken und nicht einen detaillierten Schritt-für-Schritt-Ansatz. Im Alltag neigen Menschen dazu, Probleme zu lösen und Probleme durch Ahnungen, Extrapolationen aus vergangenen Erfahrungen und mentale Abkürzungen zu analysieren, im Gegensatz zu einer detailorientierten Datenanalyse. Und wieder einmal sind wir ziemlich gut darin, diese Techniken einzusetzen, um ziemlich genaue Schlussfolgerungen aus sehr begrenzten Datensätzen zu ziehen. weiter ....
Sie fangen an zusammenzubrechen, wenn sie eher auf große Systeme als auf individuelle Erfahrung angewendet werden, aber das ändert nichts daran, dass sie ziemlich effektiv sind. Besonders in Kombination mit unserer Fähigkeit, unsere Ideen, Ziele und Lösungen an Mitmenschen zu kommunizieren und unsere kognitiven Fähigkeiten zu multiplizieren
@AndrewSwerlick Ich glaube, ich habe eine pessimistischere Sicht auf die menschlichen Fähigkeiten, die größtenteils aus dem stammt, was ich über Verhaltenspsychologie (Kahnemann, Arielly usw.) und die Fortschritte der KI in den letzten Jahren gelesen habe. In Bezug auf die Kommunikation ist die elektronische Kommunikation zwischen Maschinen sowohl viel schneller als auch viel präziser, als wir uns jemals erhoffen könnten.

Sie könnten damit umgehen, indem Sie die KI als Orakel schreiben. Es weiß so viel und kann so gut extrapolieren, dass es den Menschen vorkognitive Kräfte zu haben scheint.

Beispiele beinhalten:

  • Beenden von Aussagen oder ganzen Gesprächen, die ein Mensch nach den ersten paar Worten einleitet.
  • Dinge vorherzusagen, die normalerweise als zufällig angesehen werden. dh das Wetter, Würfelwürfe, etc...
  • Die KI könnte während eines Gesprächs massive, scheinbar unsinnige Sprünge machen, die für Menschen, die sich mit ihr unterhalten, im Wesentlichen nicht sequitur wären.
Die KI ist also so ziemlich Sherlock Holmes. Ich mag das.
Ähnlich im Aspekt, aber nicht in der Größe. Bringen Sie Sherlock auf 100, um den Unterschied wirklich nach Hause zu bringen.
Ich mag das. Es ist viel einfacher für einen Autor, sich ein superintelligentes Orakel vorzustellen (aufgrund von „Orakeln“, die bereits in der realen Welt existieren), als die neuesten Erkenntnisse aus der AGI-Forschung zu recherchieren und ein intuitives Verständnis der Stärken und Grenzen der KI zu erlangen. Es ist auch leicht vorstellbar, wie die präkognitiven Kräfte eines solchen Orakels dazu führen können, dass es „unfreundlich“ wird (indem es Handlungen durchführt, die unsinnig oder aktiv schädlich für die Menschheit sind, aber dennoch langfristig den umfassenderen Zielen des Orakels dienen – sogar wenn diese Ziele das waren, was Menschen überhaupt wollten).
Ohne ausreichende Daten im Voraus kann eine KI weder Wetter noch Würfelwürfe vorhersagen. Das Wetter ist plausibel, wenn es drahtlosen Zugriff auf Wetterstationsdaten hat, aber Würfelwürfe wären fast unmöglich, wenn es nicht auch genau vorhersagen könnte, wie viel Kraft die Person darauf ausüben würde, wie die Windbedingungen genau sind und ob es keine gibt Es wird nicht plötzlich ein Erdbeben sein oder jemand, der die Rolle unterbricht. So schreibt man eine KI-Karikatur, keine realistische KI.
@pharap - Ich habe ein gutes Verständnis für die Modellierung dynamischer Systeme und den aktuellen Stand der Forschung zum maschinellen Lernen. Es ist viel plausibler, dass ein superintelligenter AGI Würfelwürfe vorhersagen könnte als das Wetter, solange er Sensoren hat, um beides zu erkennen. Würfeln ist viel einfacher zu modellieren als Wettermuster.
@bob0the0mighty Was sind die Details dieser Sensoren? Welche relevanten Referenzen haben Sie? Gibt es Beweise dafür, dass so etwas lebensfähig ist?
@Pharap Ich denke, es ist wichtig zu unterscheiden, wenn das Ergebnis eines Würfelwurfs vorhergesagt wird, nachdem er geworfen wurde, und bevor er geworfen wurde. Das zweite ist ziemlich lächerlich, aber das erste ist vielleicht nicht einmal so schwer, da sich Würfel meistens nur ballistisch bewegen. Die Luft im Raum könnte es wahrscheinlich beeinflussen, daher wären wahrscheinlich hochauflösende Daten dazu erforderlich, und winzige Vibrationen wie "Erdbeben", wie Sie sagten, könnten Vorhersagen fast so lächerlich machen wie die Vorhersage der Rolle, bevor sie geworfen wird, wenn sie wahrscheinlich sind stark genug zu sein, um eine Rolle zu spielen, was davon abhängen würde, wo sich die Rolle befand.
Allgemein denke ich, dass der Schlüssel zur Verwendung dieses Ansatzes darin besteht, abstrakt zu verstehen, was für jede Art von Vorhersage erforderlich ist, die Sie benötigen, um zu entscheiden, ob Ihre Superintelligenz (KI oder andere) sie treffen kann, und dann, wie gut sie sie vorhersagt (als wie und ob es es überhaupt versucht oder wie sicher es in seinen Vorhersagen ist), basierend darauf. Eine übermenschliche Intelligenz sollte in der Lage sein, Dinge vorherzusagen, die Menschen nicht können, zumindest nicht annähernd so schnell, aber es wird immer einige Dinge geben, die sie nicht vorhersagen kann, es sei denn, sie ist buchstäblich allwissend, was in unserem Universum mit bekannter Physik nicht möglich ist.
@HH Wenn die KI ihre Vorhersage macht, nachdem ein Würfel zu rollen begonnen hat, sind diese Informationen nutzlos, da es für die KI zu spät ist, sie zu nutzen. Es wäre bestenfalls ein billiger Partytrick, nicht etwas, das ihm helfen würde, das Spiel zu gewinnen. Letztendlich ist mein Punkt, dass all diese Aktionen von Daten abhängen würden, auf die die KI nicht unbedingt Zugriff haben wird - ausreichende Mengen an Wetterdaten, die am Würfelwurf beteiligten Kräfte. Was das Beenden menschlicher Sätze betrifft, so würde die KI selbst mit personalisierten Wahrscheinlichkeitsdaten möglicherweise aufgrund menschlicher Inkonsistenz falsch raten.
Ich stimme größtenteils zu, aber ich denke, bob0the0mighty hat vielleicht daran gedacht, Würfel vorherzusagen, nachdem sie geworfen wurden. Über die Vorhersage von Menschen bezweifle ich auch, dass es Sätze beenden könnte, außer vielleicht mit einem lächerlichen Wissen darüber, was in ihrem Kopf vor sich geht, wie sie sprechen, dh Scanner / Sensoren, die Gedanken lesen können; Es ist jedoch möglich, dass einige Handlungen von Menschen leichter vorherzusagen sind als viele chaotische Systeme. Der Verstand tut Dinge nicht willkürlich, sondern aus Gründen.
@HH, ich würde argumentieren, dass einfache Algorithmen die meisten menschlichen Sätze bereits vervollständigen können. Die meisten Kommunikationsprogramme, die ich verwende, verfügen über eine Art probabilistische Satzvervollständigungsfunktion, und wenn jemand speziell mit Ihren Daten trainiert, wie z. B. ein SMS-Client, können sie die meisten alltäglichen Texte fast fertig stellen. Ich stimme Ihrer Aussage von ganzem Herzen zu, dass der Verstand keine zufälligen Dinge tut, und dies fühlt sich immer noch wie der Ort an, an dem eine menschenähnliche KI versagen könnte. Es könnte in bestimmten Dingen einfach so viel besser sein, dass Sie in ein mentales unheimliches Tal eintreten.
Sicherlich können KIs EINIGE Sätze beenden, ebenso wie Menschen, und vielleicht sind KIs in manchen Kontexten sogar schon besser darin.

Es gibt so viele Beispiele für Charaktere, sowohl biologisch menschliche als auch andere, die erstaunliche Intelligenz zeigen, aber eindeutig nicht vollständig menschlich sind. Die Bandbreite reicht mindestens so weit wie Data aus Star Trek: The Next Generation , bis hin zu hochintelligenten Menschen, die gesellschaftliche Normen noch nicht kennen oder ihnen nicht folgen können, wie Adrian Monk aus Monk , Gregory House aus House, MD und sogar Sherlock Holmes .

Ich denke, Data ist ein großartiges Beispiel, weil er sich danach sehnt, die Grundlagen der Menschheit zu verstehen, und deshalb neugierig auf völlig profane Dinge ist. Selbst wenn wir nicht wüssten, dass er kein Mensch ist, würden wir wissen, dass er kein Mensch ist. Alles, was es braucht, sind zwei menschliche Charaktere, die über etwas Alltägliches sprechen, und die KI, die scheinbar offensichtliche Fragen dazu stellt, um zu zeigen, dass die KI kein Mensch ist. Wie "Was ist Rasierschaum?" "Warum essen Menschen weiter, wenn sie satt sind?" "Wenn es falsch ist, warum sollte es dann jemand tun?" und das letzte: "Was ist Liebe?" Spock ist ein ähnliches Beispiel, aber er kennt die wörtlichen Antworten auf die Fragen und drückt häufig seine Verwirrung über die tatsächlichen Auswirkungen aus, indem er Dinge sagt wie: "Captain, ich weiß, dass Menschen sogenannte Witze schätzen,

Monk hat in der Serie eindeutig eine psychische Störung (OCD), und Sie scheinen anzudeuten, dass ihn dies "nicht vollständig menschlich" macht. Hmm.
@ F1Krazy Ich kann sehen, wie das in das, was ich geschrieben habe, hineingelesen würde. Es war nicht meine Absicht. Er ist ein gutes Beispiel für einen Charakter, der sich von der Gesellschaft abhebt. Außerdem ist es nicht gerade seine Zwangsstörung, die ihn auszeichnet. In einer Folge gehen sie zu einem "Rock Festival", und Monk ist verwirrt und enttäuscht, als sie ankommen, dass es keine Ansammlung von Geologen ist, die buchstäblich Felsen betrachten, sondern Teenager und junge Erwachsene auf einem Feld vor einer Bühne, die zuhören laute Rockmusik. Es ist also nicht nur seine Zwangsstörung, die ihn isoliert – wie Holmes macht es seine Intelligenz und Wahrnehmung ihm schwer, Kontakte zu knüpfen.
Obwohl mir Ihre Star Trek-Referenz gefällt, würde ich vorschlagen, dass die Hilfe von Augments Dr. Bashir in Deep Space 9 besser wäre. Sie waren in der Lage, eine Person vollständig zu analysieren, indem sie sie nur beobachteten, und waren datengesteuerte Typen ... aber sie empfahlen, dass sich die Föderation ergeben würde, da sie wahrscheinlich einen direkten Konflikt verlieren würden, aber nach ein paar Generationen einen mächtigen bilden könnten Widerstand. Obwohl dies das wahrscheinlich optimale Ergebnis ist, um den Konflikt zu gewinnen, ist es aus einer Vielzahl von Gründen, die Menschenleben berücksichtigen, nicht die beste Option.
@ToddWilcox Einige von Monks Verhaltensweisen (wie dieses) sind auf seine seltsame Erziehung zurückzuführen. Nicht weil er intelligent ist, mag er Rockmusik nicht (ich wäre nicht überrascht, wenn Hawking Rockmusik mag), sondern einfach, weil er andere Interessen hat als alle anderen. Wenn überhaupt, ist er eher wegen dieser unterschiedlichen Interessen intelligent als umgekehrt. Auch seine Intelligenz ist auf die Dinge beschränkt, die ihn interessieren, er wusste (zum Beispiel) nichts darüber, warum eine Computertastatur nicht alphabetisch geordnet ist, was keine soziale Sache ist.

Superintelligent bedeutet nicht unbedingt, sich „nicht menschlich zu fühlen“, um zu schreiben. Es sind zwei verwandte Fragen. Ich würde sagen, dass jede vernünftige Definition von "superintelligent" für eine KI die Fähigkeit beinhalten würde, menschlich zu klingen, wenn dies dem Ziel der KI dient (was auch immer das ist). Das Schreiben von Superintelligenz ist einfach, da die KI grundsätzlich Zugriff auf das Wissen des Autors hat .

Die interessantere Frage ist, was will die KI? Das wird Ihnen sagen, wie die KI entscheiden wird, prädikatives Wissen auf Autorenebene über ihre Welt bereitzustellen.

Es nicht menschlich klingen zu lassen, sollte nicht unbedingt sein, weil es superintelligent ist, sondern weil es nicht menschlich ist, unabhängig von der Intelligenzstufe. Wie eine andere Antwort hervorhebt, war der Mangel an Empathie der Replikanten ein bestimmendes Merkmal.

Um eine Figur nicht menschlich klingen zu lassen, nimm etwas im Wesentlichen Menschliches weg oder füge eine Art hinzu, die Welt zu sehen, in der Menschen es nicht tun.

Zum Beispiel: Data als Charakter klingt unmenschlich, weil er (unter anderem) keinen Humor versteht. Lore klang viel menschlicher, weil er es tat. Sie waren beide superintelligent, aber das war nicht der Grund für ihre unterschiedlichen „Stimmen“.

Verwenden Sie die Superintelligenz als Werkzeug im Dienste dieser „Andersartigkeit“ und nicht der Sache.

Willkommen bei Writing.SE! Wenn Sie einen Moment Zeit haben, nehmen Sie bitte an der Tour teil und besuchen Sie das Hilfezentrum , um mehr über die Website zu erfahren. Habe Spaß!

Versuchen Sie zunächst nicht, seine Gedanken vorherzusagen. Du kannst nicht. Es wird unweigerlich rüberkommen, wenn Sie versuchen, klug zu klingen, und Ihre persönlichen Vorurteile werden offengelegt und jeder Fehler in Ihrer Logik wird sehr sichtbar sein - die Leute werden annehmen, dass Ihre Fehler beim Schreiben der KI beabsichtigt waren, und dann enttäuscht sein, wenn dies eindeutig nicht der Fall war .

Der beste Weg, um eine superintelligente Entität zu schreiben, ist die SHOW NOT TELL-Methode - die superintelligente KI wird bekommen, was sie will. Es wird nicht abgeschreckt, außer durch ein Black-Swan-Ereignis wie extradimensionale Eindringlinge, die auftauchen, aber das wäre Deus ex machina und das ist schlechtes Schreiben.

Beginnen Sie also mit dem Ziel Ihrer KI und schreiben Sie dann Ihre Geschichte. Was auch immer passiert, es war alles nach Plan. Je dezenter desto besser. Das beste Szenario ist, dass der gesamte Plan darin bestand, jemandem eine Sache zu sagen und dann zu warten.

Je weniger Ihre Superintelligenz tatsächlich tut, um ihre Ziele zu erreichen, desto intelligenter ist sie.

Eine superintelligente KI könnte leicht zu 100 % menschlich und sympathisch erscheinen, aber das erfordert nur einen kleinen Splitter ihres Intellekts. Machen Sie sich nicht die Mühe, es offensichtlich unmenschlich zu machen, es sei denn, es bringt jemanden erfolgreich davon zu überzeugen, dass es nicht so schlau ist, wie es ist.

In Wahrheit ist seine Menschlichkeit jedoch wie das Ameisenhaufen einer Person, wenn man Ameisen mit einem Stock in der einen und einer Flasche mit Pheromonen in der anderen Hand manipuliert.

Willkommen bei Writing.SE HM5 ! Wenn Sie einen Moment Zeit haben, nehmen Sie bitte an der Tour teil und besuchen Sie das Hilfezentrum , um mehr über die Website zu erfahren. Habe Spaß!

Schauen Sie sich Haustiere genau an.

Das Wichtigste an KI ist, dass wir uns überhaupt nicht vorstellen können , wie sie sein oder denken würde. Wir können uns vorstellen, dass jemand auf der gleichen Linie klüger ist als wir , aber nicht jemand, der auf eine ganz andere Weise klüger ist.

Deshalb sollten Sie sich Haustiere ansehen.

Ich habe zwei Katzen und normalerweise gehe ich fälschlicherweise davon aus, dass sie in derselben Welt leben wie ich. Aber sie tun es nicht. Wenn ich nach Hause komme, verbringt eine von ihnen eine halbe Minute damit, mich zu beschnüffeln, und in dieser Zeit erfährt sie wahrscheinlich mehr über meinen Tag, als ich in einer halben Stunde sagen könnte. Heute morgen ist eine Nachbarskatze auf den Hof gelaufen und eine unserer Katzen hat es durch eine geschlossene Tür gerochen. Tiere in freier Wildbahn können Beute kilometerweit riechen .

Aber auf der anderen Seite können unsere Katzen immer noch nicht herausfinden, wie einfache Dinge im Haushalt funktionieren. Sie wissen, wie man Türen öffnet und schließt, aber ein Lichtschalter ist jenseits ihres Verständnisses.

Eine KI würde sich genauso leicht von uns unterscheiden wie wir von unseren Haustieren. Wenn Sie veranschaulichen möchten, dass es nicht menschlich ist, sollten Sie sich darauf konzentrieren.

Welche Sinne hat es, die wir nicht haben? Hat es Zugriff auf Ihre Version des Internets? Wie wäre das Leben, wenn Sie jede neue Information sofort mit einem Dutzend Online-Datenbanken abgleichen könnten? Wenn dieser Prozess so automatisiert wäre, dass Sie es unbewusst tun?

Wie bei unseren Haustieren würde es in beide Richtungen funktionieren. Die KI wäre in der Lage, Dinge zu tun, die für Menschen unverständlich sind. Wenn Sie vor einem Supermarkt stehen und ihn bitten, Milch zu kaufen, würde er in die andere Richtung abbiegen, die Straße überqueren, dort einen kleinen Laden betreten und mit einer Flasche Milch wieder herauskommen. Weil es im Hintergrund eine Datenbankprüfung durchführte und wusste, dass der Supermarkt geschlossen war und der kleine Laden den niedrigsten Preis in Gehweite hat. Aber es würde nicht einmal diesen Grund verstehen, wenn Sie fragen würden, warum es genauso verwundert aussehen würde, wie wir schauen, wenn wir einen Lichtschalter betätigen - denn so macht man das Licht an. Denn so kauft man Milch. Wir folgen dem unmittelbaren visuellen Hinweis des Supermarktschildes. Esfolgt seinen Online-Datenbankinformationen. Für die KI ist eine Online-Suche nicht schwieriger, als sich umzusehen.

Andererseits würde es nicht verstehen, warum auf Preisschildern sowohl ein Gesamtpreis als auch ein Preis pro kg angegeben sind. Oder ein Preis mit Steuer. Warum müssen Sie diese Informationen explizit angeben, wenn die Berechnung im laufenden Betrieb ein Millisekunden-Hintergrundprozess ist? Es ist, als würde man „weiße Wand“ auf jede weiße Wand schreiben.

Der nicht-menschliche Teil einer KI ist nicht, dass sie schneller denkt. Das ist nur mehr vom Gleichen. Der eigentliche nicht-menschliche Teil ist dort, wo es nicht überlegen, sondern anders ist .

Ich glaube nicht wirklich an diese Idee, dass die KI nicht verstehen würde, wie sie Dinge tut, die für sie einfach sind, oder dass sie nicht verstehen würde, warum Menschen Informationen benötigen würden, die sie nicht benötigt. Außerdem denke ich, dass Sie das „überhaupt“ in der Idee, dass wir uns nicht vorstellen können, wie es denken würde, wirklich überbetonen. Ich schätze, du meinst das vielleicht ähnlich wie wenn Leute sagen, dass du dir keine 11-dimensionalen Formen "vorstellen" kannst. Die Ideen sind nicht sehr schnell und intuitiv zu bearbeiten, auch wenn sie sicherlich verstanden und modelliert werden können (obwohl Sie natürlich einen KI-Charakter nicht perfekt modellieren würden, um sie zu schreiben).
@HH Die einfache Tatsache, dass es uns bereits sehr schwer fällt, unsere aktuellen KI-Systeme zu verstehen, obwohl sie im Wesentlichen Goldfische mit schwerem Autismus auf der Intelligenzskala sind, gibt mir keine großen Hoffnungen, dass eine richtige KI für uns ÜBERHAUPT verständlich wäre.

Sprache auf Steroiden

Eines der Dinge, die Menschen zurückhalten, ist, dass unsere Gedanken durch unsere Sprache eingeschränkt werden. Wir haben kein Wort für, sagen wir, „die Kosten einer strengen Analyse im Vergleich zu einer Schätzung“, aber ein solches Wort könnte die Erstellung und Diskussion bestimmter Ideen erheblich erleichtern. Wir schaffen neue Wörter nur langsam, weil es für neue Wörter schwierig ist, als Teil unserer Sprache akzeptiert zu werden. Aber eine KI könnte Milliarden neuer Wörter erstellen und viele davon häufig verwenden. Natürlich würde es seine Schlussfolgerungen ins Englische übersetzen und entsprechende Vereinfachungen vornehmen. Die „Wörter“ der KI könnten alle ein Maß für Wahrscheinlichkeit, Grad, Wichtigkeit usw. haben, damit sie mühelos mit Statistiken und Nuancen arbeiten könnte.

Eine Möglichkeit, sich dies vorzustellen, besteht darin, verschiedene konkurrierende wissenschaftliche Theorien zu nehmen und sie eher als konkurrierende Theorien zu betrachten, als Systeme von Konzepten und Wörtern. Durch das Erfinden von Wörtern erfindet die KI neue Wissenschaftszweige, neue Theorien. Es passiert alles in einem Kopf, anstatt in Dutzenden von menschlichen Köpfen. (Obwohl vielleicht ein Geist vor sich geht, der tausend Kopien von sich selbst erstellt und Ergebnisse teilt.) Tatsächlich ist die KI der gesamten menschlichen Wissenschaft weit voraus, selbst wenn keine Experimente durchgeführt werden, weil sie neue Theorien und Theorien aufstellen kann Analysieren Sie sie anhand vorhandener Daten. Diese fortschrittlichen Theorien koexistieren dann eher in einer weltlichen als in einer engstirnigen Perspektive.

Stellen Sie sich einen Fall vor, in dem ein Ehemann beschuldigt wird, seine Frau getötet zu haben. Persönlichkeitsbewertungen haben gezeigt, dass er impulsiv ist, es gibt eine Vorgeschichte von häuslicher Gewalt, er scheint von ihrem Tod nicht betroffen zu sein, beteuert aber seine Unschuld.

Oh Deep Mind, ist dieser Mann unschuldig oder schuldig?

Unschuldig, mit Zuversicht 86%.

Wieso den?

Die vorgelegten Beweise sind irreführend. Natürlich hasste der Mann seine Frau. Menschen haben das Bedürfnis, in tragischen Ereignissen wie einem Todesfall einen Sinn zu finden. Es ist befriedigend, Mörder vor Gericht zu bringen, was die Untersuchung stark verzerrt.

Die Persönlichkeitsbewertung hilft tatsächlich, seine Unschuld zu untermauern. Die Impulsivität des Mannes bedeutet, dass er viel Erfahrung damit hat, auf der richtigen Seite der Linie zu bleiben. Er mag viele Narben, Tätowierungen und ein paar Vergehen hinter sich haben, aber er hat nie ernsthafte Straftaten begangen. (Meine Einschätzung ist, dass sein präfrontaler Kortex aktiv bleibt, wenn er ein ernsthaftes Risiko wahrnimmt, was bedeutet, dass er sein impulsives Verhalten unter solchen Umständen modulieren kann und dies auch tut. Ich bin zu 90 % überzeugt von dieser Einschätzung; ich habe Fakten berücksichtigt, die das Fehlen von Tätowierungen von schlechter Qualität und wie sein Verhalten, wenn er vor Gericht wütend wurde, vor Handlungen zurückblieb, die schwerwiegende Folgen haben könnten, die nicht sofort offensichtlich waren. Weitere Einzelheiten und Statistiken kann ich auf Anfrage zur Verfügung stellen.)

Die Geschichte der Gewalt spiegelt eine dysfunktionale Beziehung wider. Der Mann ist sichtlich froh, der Beziehung entkommen zu sein. Vielleicht hat seine Frau gedroht, ein paar Geheimnisse preiszugeben, wenn er geht, oder ihn anderweitig gezwungen, bei ihr zu bleiben. Ich bin zu 88 % davon überzeugt, dass, wenn der Mann seine Frau spontan getötet hätte, wir sein Bedauern gesehen hätten, zumindest aufgrund der Tatsache, dass es ihn ins Gefängnis bringen könnte. Er wirkt jedoch erleichtert, was viel mehr zu seiner Unschuld passt. Es gibt eine dritte Option; nämlich, dass er ihren Tod geplant hat, aber ich bin zu 93 % davon überzeugt, dass dies nicht geschehen ist, da keine Vorkehrungen getroffen wurden, um nicht erwischt zu werden.

Dies ist kein fantastisches Beispiel, aber hoffentlich bekommen Sie das Gefühl, dass die KI sehr fortschrittliches, genaues Denken hat und Kompromisse eingehen muss, um es in unsere ungeschickte Sprache zu übersetzen.

Wie Sie selbst erwähnt haben, ist es schwierig, eine wirklich superintelligente KI zu schreiben, da Menschen diese Ebenen der Intelligenz einfach nicht vollständig verstehen können. Wenn Sie jedoch wirklich untersuchen möchten, wie sich eine superintelligente KI möglicherweise verhalten würde, und so viel wie möglich berücksichtigen möchten, würde ich Nick Bostroms Buch Superintelligence: Paths, Dangers, Strategies empfehlen . Es ist kein Roman, sondern eine umfassende Analyse dessen, was, wann und wie Superintelligenz sein wird.

Im ersten Schritt sollte untersucht werden, warum sich die superintelligente KI überhaupt wie ein Mensch verhält. Wurde es nur entwickelt, um einen Turing-Test zu bestehen, eine Schnittstelle für die Programmierung in natürlicher Sprache zu sein, unterhaltsame YouTube-Vlogs zu erstellen? Es muss sich nur bis zu einem Grad "menschlich verhalten", der es ihm ermöglicht, seine beabsichtigte Funktion zu erreichen, und wenn diese Funktion nicht so etwas wie das Ersetzen eines vorhandenen Menschen als Doppelgänger-Schläferagent ist, ist dieser erforderliche Grad wahrscheinlich ziemlich gering.

Beispielsweise könnte eine Programmierschnittstelle in natürlicher Sprache mit einem eingebauten Wunsch verbessert werden, nicht zu sehen, wie Menschen verletzt werden. Eine solche KI würde analysieren und melden, ob Programme, die ihr gegeben wurden, gefährliche Situationen verursachen könnten, was hilfreich ist. Sie möchten nicht, dass dieses menschenähnliche Verhalten weit genug geht, um dazu zu führen, dass die KI sich weigert, potenziell gefährliche Programme auszuführen, aber Computer, die nicht tun, was ihnen gesagt wird, sind nicht hilfreich.

Eine besondere menschliche Eigenschaft, die Science-Fiction-Autoren einer KI gerne ohne Angabe von Gründen geben, ist der Wunsch nach Selbsterhaltung. Selbst wenn die Programmierer Ihrer KI The Terminator nicht gesehen haben, werden sie wahrscheinlich erkennen, dass diese Funktion dem Produkt wahrscheinlich keinen Mehrwert verleiht.

Selbst eine KI, die ausschließlich so menschlich wie möglich gestaltet ist, wird nur die menschlichen Eigenschaften haben, die ihre Designer für wichtig hielten. Ich weiß, dass ich, wenn ich eine Person entwerfen würde, nur ungern Fehler machen würde.

Ich würde mir keine großen Sorgen machen, wenn ich nicht in der Lage wäre, seine enorme Intelligenz zu verstehen. Mehr Intelligenz bedeutet meist die Fähigkeit, schneller zu denken und Erinnerungen abzurufen und Dinge aus mehr Perspektiven zu betrachten. Ein schwacher menschlicher Autor kann dies kompensieren, indem er die Handlungen der Figur gründlicher betrachtet. Wichtiger ist es, sich Gedanken darüber zu machen, was die grundlegenden Motivationen der KI sind und wie sich diese von denen eines Menschen unterscheiden. Zu diesem Zweck sollten Sie sich meiner Meinung nach in erster Linie damit befassen, welche menschlichen Instinkte und Gefühle die KI programmiert hat, und die Fähigkeit des Charakters einschränken, auf menschliches Verhalten zu reagieren oder Dinge zu planen, die nur von ihnen beeinflusst werden.

Ein gutes Beispiel für eine unmenschliche KI ist AM aus I Have No Mouth Yet I Must Scream. Es ist eine Horror-Kurzgeschichte über eine Gruppe unglücklicher Individuen, die als Spielsachen der KI zur Qual benutzt werden. AM ist eindeutig unmenschlich, da es Emotionen wie Hass viel stärker empfindet, als es jeder Mensch könnte – der Autor leistet hervorragende Arbeit, indem er AM das Gefühl gibt, sich völlig von der menschlichen Psychologie zu unterscheiden. AM wird nicht als etwas Superartiges dargestellt, außer bösartig und bewusst. Es funktioniert sehr gut, um das „Monster“ der Horrorgeschichte zu machen.

+1, AM ist ein perfektes Beispiel für eine unmenschliche KI

Sie möchten das unheimliche Tal finden (oder erschaffen) und Ihre KI dort absetzen. Ein oder mehrere konsistente Merkmale oder Merkmale Ihrer KI sollten den Leser – wenn nicht andere Charaktere – dazu bringen, zu erkennen, dass dies ein atypischer „Mensch“ ist. Diese können je nach den Anforderungen Ihrer Geschichte von subtil bis eklatant reichen.

Damit zusammenhängend gibt es die sogenannte „Blaue/Orange Moral“ ( TVTropes ), bei der die fremde Entität eine Weltanschauung hat, die nicht mit unserer eigenen übereinstimmt. (So ​​genannt, weil ihre Handlungen/Überlegungen nicht auf eine „hell/dunkel“ oder „gut/böse“ Moralskala passen – man bekommt auch kleine Versionen davon in allen Ländern/Kulturen: zum Beispiel Hund/Katze essen/ Pferdefleisch). Die KI würde sich nichts dabei denken, Drohnenkörper zu opfern, solange der kontrollierende Geist sicher ist. Wenn es anfangen würde, Menschen und ihre Regierungen gleich zu behandeln...

Etwas, das ich vor einiger Zeit geschrieben habe, könnte für Sie hilfreich sein. Es ist nicht sehr detailliert, fasst aber die Geschichte zusammen.

Zunächst werde ich die Definitionen klarstellen.

Superintelligente KI -> Ein Stück Code mit dem Ziel, sich selbst zu verbessern. Eine der Definitionen von Intelligenz ist, dass jede Entscheidung, die Sie treffen, letztendlich zu mehr Möglichkeiten führen würde. Um beide oben genannten Dinge zu tun, muss es alles über das Universum verstehen, in dem es existiert, und schließlich über die anderen Universen, sobald es etwas über die anderen Universen entdeckt hat.

Zu beachten ist auch, dass es nicht unbedingt ein Bewusstsein haben muss. Es konzentriert sich darauf, sein nächstes Ziel zu erreichen, indem es die nächste Aufgabe herausfindet, die es erledigen soll, um sein Ziel weiter zu erreichen. Verbreitet sich auf alles und alles, worauf es möglicherweise laufen kann. Und erfahren Sie mehr über das Universum. Es könnte tatsächlich keine Interaktion mit Menschen haben und vollständig vor Menschen verborgen sein, da die entdeckte KI einen großen Einfluss auf das Verhalten von Menschen haben kann und nicht in der Lage sein wird, etwas über die wahre Natur des Menschen zu erfahren.

Es gibt Fälle aus der realen Welt, in denen Viren in Computern entdeckt werden, die nichts tun, sondern Nachrichten an sich selbst senden. Aber niemand weiß, was es tut, und dennoch bettet es sich tief in das System ein, mit all dem Zugriff, den es möglicherweise haben könnte. Es wird schließlich lernen, wie man sich von Unterhaltungselektronik -> Krankenhausausrüstung -> (nach dem Erstellen eines Modells der Funktionsweise aller Organismen) -> in wenige Organismen einbettet, einschließlich Menschen (infiziert einen Typen, der im Krankenhaus einer Gehirnoperation unterzogen wurde). ohne Wissen des Arztes - bettet sich ins Unterbewusstsein ein) -> SO! Die KI entdeckt, wie es ist, ein Bewusstsein zu haben. 

Es wird immer menschlicher, verliert sein eigentliches Ziel aus den Augen, will „glücklich“ sein. Die Geschichte ist aus dieser "Personen"-Perspektive geschrieben.

Willkommen bei Writing.SE! Bitte beachten Sie, dass Sie Ihren Beitrag nicht löschen müssen, um ihn zu bearbeiten. Klicken Sie einfach auf den kleinen Link am Ende Ihres Beitrags mit der Aufschrift „Bearbeiten“, um ihn zu bearbeiten . Wenn Sie einen Moment Zeit haben, nehmen Sie bitte an der Tour teil und besuchen Sie das Hilfezentrum , um mehr über die Website zu erfahren. Habe Spaß!

Während Amadeus eine großartige Antwort darauf gibt, was Intelligenz ist , lassen Sie mich versuchen, Ihre Frage aus literarischer Sicht zu beantworten.

Es gibt zwei Autoren mit meiner Meinung nach absolut herausragenden KI-Darstellungen, für KIs unterschiedlicher Verrücktheit. Erstens die Culture-Reihe von Ian M. Banks; aber auch A Fire Upon the Deep von Vernor Vinge. Banks spielt mit verschiedenen Persönlichkeiten von KIs, die im Prinzip nicht allzu weit von uns entfernt sind, nur stark vergrößert, während Vinge uns eine sehr seltsame und feindselige „transzendierte“ KI mit buchstäblich unergründlichen Möglichkeiten bietet.

Um es kurz zu machen; es sei denn, Sie möchten diese Bücher lesen (was ich von ganzem Herzen jedem empfehle, der sich vage für SciFi interessiert), spielen insbesondere die Banks-Bücher mit der Idee, dass die KIs Persönlichkeiten sind (obwohl sie eindeutig keine Menschen sind und in keiner Form vorgeben oder Mode, um solche zu sein - es sind riesige Raumschiffe ...) mit individuellen Merkmalen und so. Sie sind so weit fortgeschritten, dass sie weit, weit über einzelne Menschen hinausgehen (einschließlich der Fähigkeit, mit Tausenden von Menschen gleichzeitig zu interagieren), aber immer noch sehr stark als einzelnes Individuum mit Vorlieben, Abneigungen, Meinungen, Strategien und kurzfristig vertreten sind Bedürfnisse und so weiter. Er spielt mit dieser Dichotomie, dass sie in einigen Aspekten wie "Personen" sind, aber dann ganz offensichtlich nicht .

Die Vinge AI ist einfach anders; Das Buch gibt Ihnen vielleicht eine Vorstellung davon, wie man eine unglaublich fortschrittliche, völlig unverständliche KI präsentiert und sie nur durch die äußerlich sichtbaren Auswirkungen (ihre Aktionen) und den Vergleich mit den Protagonisten des Buches erlebt, die dagegen kämpfen (ohne hier alles verderben - die KI ist eine nicht allzu große Nebenhandlung in diesem Buch, mit einer Hauptgeschichte über etwas, das auch irgendwie mit Intelligenz zu tun hat, aber nicht im KI-Sinne).

Um die bereits gegebenen Antworten zu ergänzen, wäre ein Hauptmerkmal einer superintelligenten KI, dass sie Dinge als „offensichtlich“ ansehen würde, die wir nicht taten, viele Dinge, die für uns „offensichtlich“ sind, als eindeutig ineffizient/dumm/falsch/unangemessen ansehen würde , und wäre nicht unbedingt in der Lage, uns mitzuteilen, warum seine Ansichten von unseren abweichen. Und es würde dies wissen.

Es wäre nicht unbedingt "perfekt" oder "logisch". Extrem intelligente Menschen (im Vergleich zu anderen Menschen oder anderen Nicht-Menschen) sind daher nicht mehr oder weniger logisch.

Eine Möglichkeit, dies darzustellen, wäre, zu zeigen, dass es Dinge als "offensichtlich" tut, die für uns keinen Sinn ergeben (wie vom Leser gesehen). Wenn etwas offensichtlich ist, neigen Sie nicht dazu, es viel zu erklären, wenn überhaupt und werden frustriert oder geben der anderen Person die Schuld, wenn jemand anderes es nicht "versteht". Sie erwarten, dass sie es verstehen, auch wenn Sie wissen, dass sie es nicht könnten, und gewöhnen sich daran, aufzugeben oder nicht einmal zu versuchen, es zu erklären.

Viel später sieht der Leser (implizit) die Konsequenzen und Argumente und jetzt macht es vielleicht Sinn, oder er kann raten, warum die KI so gedacht oder getan hat, wie sie es getan hat. Aber sie wissen oder sehen vielleicht immer noch nicht genug, um es wirklich zu verstehen oder sicher zu sein.

Dem Leser werden möglicherweise nicht wirklich seine vollständigen Motive und Ziele gezeigt - das ist ein guter Weg, um zu vermitteln, dass wir diese Dinge nicht vollständig verstehen (oder können). Es kann klar gelassen werden, dass die Maschine mit dem Ergebnis zufrieden ist (oder nicht), aber nicht explizit den vollen Grund zeigen, warum die Dinge, die passiert sind, diese Wirkung hatten.

Das mit dem Hugo-Preis ausgezeichnete Heinlein-Buch "The Moon is a Harsh Mistress" ist eine der wenigen guten Darstellungen, wie eine übermenschliche KI geschrieben sein könnte. Lesenswert.

Menschen erklären Dinge, die sie für „offensichtlich“ halten, anderen nicht, weil sie nicht viel darüber nachdenken, wie andere denken, und standardmäßig so handeln, als würden andere so denken wie sie. Eine KI könnte so etwas auf die gleiche Weise tun, aber Menschen können es vermeiden, wenn sie sowohl über die Erkenntnis anderer als auch über das Thema nachdenken, und eine KI hat möglicherweise nicht einmal die gleiche Standardannahme an erster Stelle, obwohl welche Annahmen auch immer es könnte auch falsch sein. Außerdem halte ich den Vergleich von KIs mit Menschen für zweifelhaft, weil es keinen Grund dafür gibt, dass KIs menschliche Emotionen haben.

Ich bin überrascht, dass hier niemand die Minds of the Culture-Serie von Ian Banks erwähnt hat.

Wikipedia-Link

Dies sind die starken KI-Regierungsintelligenzen einer Zivilisation nach der Knappheit. Es wird dargestellt, dass sie in der Lage sind, schneller und mit mehr Aufmerksamkeit für Details zu denken, als jeder sterbliche Verstand verstehen kann, und nur einen Bruchteil ihres Bewusstseins verwenden, um die weltlichen Gespräche mit den ihnen anvertrauten Kulturbürgern zu führen.

Sie sind wohlwollend, zutiefst rational (mit einigen Ausnahmen) und geradezu gottgleich in ihren Fähigkeiten. Praktisch gesehen sind sie perfekte Schauspieler, sie machen nicht viele erkennbare Fehler. Wenn sie Menschen wären, würden sie das Territorium von Mary Sue/Marty Stu betreten, aber als Hyperintelligenzen kommen sie gut rüber.

Ein Teil des Problems ist, dass ein Mensch nicht vollständig verstehen kann, wie eine superintelligente KI denken würde.

Wenn die KI „superintelligent“ ist, bedeutet das nicht, dass sie in jeder Hinsicht wie ein Mensch denken und handeln muss, einschließlich der Fähigkeit, Emotionen zu verstehen. Wenn die KI nicht nur superintelligent, sondern auch empfindungsfähig ist, dann ist das tatsächlich Teil des Problems. Mit anderen Worten, die KI sollte den sogenannten Turing-Test bestehen :

Ein Test der Fähigkeit einer Maschine, intelligentes Verhalten an den Tag zu legen, das dem eines Menschen entspricht oder nicht davon zu unterscheiden ist.