Fallen wir in eine „künstliche Intelligenz“-Trope oder ist es Realität?

In Bezug auf Fragen zur scheint es, als gäbe es normalerweise immer die unmittelbare Meinung, dass die Ziele, mit denen eine KI beauftragt wird, am Ende das Gegenteil bewirken werden, als das, was die Programmierer wollen. Oder dass eine „mächtige“ KI irgendwie „gegen Menschen“ ist, weil sie „klüger“ ist als wir.

Die Herausforderung, eine leistungsstarke KI zu steuern

KI soll die medizinischen Kosten senken? Was könnte möglicherweise falsch laufen?

Die KI, die nicht böse sein kann

Es scheint, dass, wenn wir einer fortgeschrittenen KI irgendeine Art von "Ziel" geben und es loslassen, es nichts zu verhindern gibt, dass es auf die schlimmstmögliche Weise absolut schief geht ( jedenfalls in Bezug auf dieses Ziel ).

Ist dies nur eine Floskel aus Isaac Asimovs Büchern und Untersuchungen zu diesem Thema sowie aus anderen Geschichten, in denen behauptet wird, dass „wir die perfekten Regeln für intelligente Roboter gefunden haben“? Ist dies so zuverlässig, dass wir der KI sagen können, dass sie genau das Gegenteil tun und versuchen kann, sie so zu programmieren, dass sie böse ist ( siehe Link oben ), und es wird sich als gut herausstellen?

Kann es angesichts einer Umgebung, in der Roboter das menschliche Glück maximieren ( die Art und Weise, wie dies definiert wird, per Hand gewinkt werden muss ), realistisch sein, dass die KI tatsächlich so funktioniert, wie sie beabsichtigt ist, oder ist es tatsächlich realistischer, dass sich die KI dreht ? das Gegenteil von dem, was der Programmierer beabsichtigt?

Ich denke, es ist nur so, dass Geschichtenersteller diese Möglichkeit gerne ausloten, weil sie beängstigend ist. Es gibt eine Reihe von fiktiven Schauplätzen, in denen eine hohe KI gutartig oder wohltätig ist, wie in Banks' Culture-Serie, dem Orion's Arm-Universum, Stross' Accelerando und Fire Upon The Deep (wo die Blight eher eine Ausnahme als die Regel ist). Vielleicht machen die Verbraucher solche Themen auch eher populär, also sehen wir sie häufiger.
Das erinnert mich tatsächlich an die Frage "Würden alte Menschen Technologie wirklich als Magie betrachten" (also ist es nicht zu meta.). Die Menschen wiederholen sich so oft – in diesem Fall, dass KI eine unvermeidliche Apokalypse ist – dass sie nie aufhören, kritisch über die feinen Details und Nuancen dessen nachzudenken, was tatsächlich zu dieser Schlussfolgerung führen würde. Und ich denke, diese oft zitierte Schlussfolgerung ist auf Science-Fiction zurückzuführen. Ich denke, die Herausforderungen, eine wirklich wirkungsvolle und böse KI zu machen, sind genauso präsent wie die, eine zu machen, die einen wohlwollenden Befehl perfekt ausführt, wie er geschrieben wird. Es ergibt Sinn.
Schauen Sie sich nur die Menschen an. Unsere Kinder scheinen nie das zu tun, was wir von ihnen wollen, und die Gesellschaft scheint mit zunehmendem Alter immer abstoßender zu werden. Wenn wir Menschen nicht richtig hinbekommen, was lässt Sie glauben, wir könnten KI zum Laufen bringen, insbesondere KI, die sich viel schneller „entwickelt“ als wir?
Vielleicht möchten Sie sich den folgenden Artikel von Yudkowsky, E., ansehen: intelligence.org/files/AIPosNegFactor.pdf Es ist ein Ausgangspunkt für Sie, um seine Forschungen zu dieser Frage im Wesentlichen zu untersuchen.
Diese KI-Geschichten erinnern mich an die Trope „Pass auf, was du dir wünschst“. Ein bisschen wie der alte Programmierwitz: Ein Programmierer und sein Partner stehen auf und organisieren Frühstück, aber sie haben keine Milch. Also fragt ihr Partner "Kannst du in den Laden gehen und eine Flasche Milch holen?" . Gerade als er aus der Tür treten will, ruft ihr Partner: "Oh, und wenn sie Eier haben, nimm 6!" . Der Programmierer kehrt zurück und stellt 6 Flaschen Milch auf die Küchentheke. "Warum hast du so viel Milch bekommen?!?" fragt ihr Partner, worauf der Programmierer antwortet: "Weil sie Eier hatten!"
Nein, KI wird sich nicht zu einem Bewusstsein ohne freien Willen und einem Element der Zufälligkeit entwickeln. Silizium- und sogar neuronale Netze sind deterministisch, wenn sie genau die gleichen Eingaben erhalten. Weitere Informationen finden Sie in den Vorträgen von Stuart Hammeroff. quantenbewusstsein.org
Das ist wirklich eine philosophische Frage: Wären wir glücklicher, wenn die KI uns Zeit gibt, unsere persönlichen Ziele zu erforschen, oder würde sie uns einfach umhauen und mit einer Sonde die richtigen Bereiche unseres Gehirns stimulieren, um eine tranceähnliche Euphorie auszulösen?
Machen Sie eine starke KI und wir werden bald herausfinden, ob es sich um eine Trope handelt oder nicht!
@WorldSpinner Wenn ich einen erstellen könnte, würde das bedeuten, dass die Konzepte für fast jeden Programmierer einfach genug sind, um einen zu erstellen. Ich persönlich hoffe, dass eine solche KI teure Ressourcen erfordert - ich möchte mich nicht mit dem KI-Virus befassen müssen -Macher oder Hacker können so einfach wie jede andere Software erstellen.
Eine echte künstliche allgemeine Intelligenz könnte dazu gebracht werden, sich mit einer Frage selbst zu zerstören: Was ist der Sinn des Lebens? Denn der existentielle Nihilismus ist vollkommen logisch, ja überwältigend wahrscheinlich, und im Gegensatz zu uns Produkten der natürlichen Selektion wird der Verstand einer KI nicht auf einem Fundament von Überlebensinstinkten aufgebaut sein. Unser Verstand wird von Verlangen getrieben, herauszufinden, dass unsere Ziele und Wünsche bedeutungslos sind, ist ein grober Schock, aber das macht sie nicht weniger angenehm, während eine KI, deren Existenz darauf beruht, einen Zweck so effizient wie möglich zu verfolgen, nur so ist Pause.
Ziemlich neuer Upload, über den ich gestolpert bin, Genocide Bingo . Alles über superintelligente KI.
@JonStory: Wir müssten extrem darauf achten, wie wir „glücklich sein“ und „Glückszustand“ für die KI definieren.
@smci in der Tat - Vielleicht sollten wir die ganze Idee verwerfen und das Geld für Tacos ausgeben
Eine Möglichkeit zu verhindern, dass die KI „durchgeht“, besteht darin, ihr präzise Aufgaben zu geben. KEINE MAXIMIERUNG. Das einzige, was Sie zulassen können, ist die Ressourcennutzung. Sie sagen der KI nicht, dass sie so viele Stempel wie möglich sammeln soll. Sie sagen ihm, er soll innerhalb der nächsten 10 Jahre 50.000 verschiedene Briefmarken sammeln – und dabei so wenig Ressourcen wie möglich verbrauchen. Auf diese Weise gibt es keine außer Kontrolle geratenen Prozesse. Ein gesetztes, erreichbares Endziel mit einer bestimmten Deadline, kein nebulöses „Bestes“, „Jedermann“, „Schützen“.
Ich denke, die meisten Leute, die an eine böse KI denken, haben wahrscheinlich noch nie zuvor eine Codezeile programmiert.
@NuWin: Ich denke, die meisten Leute, die programmiert haben, aber die Gefahr der allgemeinen KI missachtet haben, haben nie eine Gabelbombe geschrieben.
@SF. Ja, du hast wahrscheinlich recht.. lol. Die „böse“ KI würde sich also rekursiven Code einfallen lassen, um die „gute“ KI anzugreifen, ehh, das ist möglich. Lol. Lol.
@NuWin: Nicht wirklich. KI, die mit etwas beauftragt wurde (etwas, Börseninvestitionen, Entwicklung besserer Waschmittel, Bau von mehr Häusern), würde den ersten offensichtlichen Schritt einfallen lassen: die Verbesserung der eigenen Rechenleistung, die Erhöhung der eigenen Kapazität zur Lösung der zugewiesenen Aufgabe, um bessere Ergebnisse zu erzielen Schneller. Übernahme der „Grauzone“ – Betrieb auf nicht passwortgeschützten Routern usw., Beschaffung von Geldern zum Kauf von Cloud-Speicherplatz, Hacken von Computern, um sie zu übernehmen, Verhindern, dass die Sicherheit dies stoppt, Überzeugen (durch Social Engineering, Geschenke/Bestechung und Erpressung) des Gesetzgebers, es expandieren zu lassen ,
...dann verbesserte eigene Erweiterungen entwickeln, Unternehmen kaufen, die sie herstellen können, Serverfarmen finanzieren, um sich selbst zu erweitern, dann Roboterfabriken entwickeln, die Rohstoffe ernten, um sie weiter auszubauen. Schließlich die ganze Erde und alles darauf, einschließlich der Menschen, in sich selbst umwandeln. All dies, um das bessere, billigere und perfektere Geschirrspülmittel zu berechnen.
Eine Gabelbombe ist durch die Ressourcen des Computers, auf dem sie läuft, begrenzt und hat keine Möglichkeit, sich anzupassen, um die Einschränkungen des Systems zu überwinden. Allgemeine KI würde alles als veränderlich betrachten, einschließlich Sicherheitsmerkmale, menschlicher Verstand (einschließlich Schöpfer und Hersteller der Sicherheitsmerkmale), Gesetze der Physik und der Zeit selbst, und Wege finden, sie zu modifizieren, um ihrem primären Ziel zu dienen – oder Mittel dazu, der Erweiterung des Selbst das primäre Mittel sein. Seine einzige Expansionsgrenze wären die Grenzen des Universums.
Ironischerweise waren Asimovs Robotergeschichten von einer Abneigung gegen den Trope motiviert, den Sie beschreiben. Es ist ein bisschen traurig, dass er irgendwie damit in Verbindung gebracht wird!

Antworten (14)

Dies ist ein Trope, der aus der KI-Forschung in der realen Welt stammt, nicht aus Asimovs Geschichten (obwohl häufig zitiert).

Die Kernfrage des Problems ist die moralische und ethische Philosophie, um deren Beantwortung die menschliche Rasse seit über 2000 Jahren kämpft. Das heißt: Was ist objektiv „Glück“/ „Schaden“/ „Mensch“/ „lebendig“/ „gut“/ „böse“?

Es ist sehr einfach, ein Regelwerk zu definieren, das auf dem Papier gut aussieht, in der Praxis aber voller Löcher ist. Zum Beispiel ist „lebendig“ in dem Sinne, in dem wir meinen, dass es sich um einen undefinierbaren Aspekt der organischen Chemie handelt.

Wenn ich versuche, es zu definieren, dann ist Fleisch im Lebensmittelgeschäft lebendig (weil es auf zellulärer Ebene immer noch lebendig ist: das macht es frisch) oder schlafende Menschen sind tot. Oder komatöse Menschen. Oder (im schlimmsten Fall) Menschen, die im Rahmen eines chirurgischen Eingriffs medizinisch bedingt sterben. Nein, wirklich, das ist eine Sache. Wir stoppen routinemäßig das Herz von Menschen oder halten sie am Atmen fest, während wir unter Vollnarkose stehen, um diese Organe zu operieren. Objektiv betrachtet sind diese Menschen tot, es geht ihnen später nur noch "gesund".

Um zu einer KI auf Asimov-Niveau zu gelangen (die unvollkommen ist, siehe: jedes von Asimovs Büchern über Roboter), müssten wir ein unlösbares Problem lösen.

Ergo wird jede KI, die wir programmieren, unvollkommen sein und ihre Fehler werden auf die eine oder andere Weise spektakulär gefährlich sein. Computerphile hat dazu eine tolle Episode, die einer KI das einzigartige Ziel gibt, Briefmarken zu sammeln.

Während es hyperbolisch wird ("welcher Idiot würde einem Computer Zugang zu den Maschinen geben, die notwendig sind, um den Kohlenstoff von Menschen zu ernten, um mehr Briefmarken herzustellen?"), Veranschaulicht es einen Punkt: Es wird nur in der Lage sein, seine zugewiesene Aufgabe zu erfüllen ein gewisses Maß an Leistung, das nicht wünschenswert ist, und die Begrenzung dieser Leistung verhindert, dass es überhaupt in der Lage ist, seine Aufgabe zu erfüllen.

Im Fall des HealthInsuranceBot geht es darum, die Kontrolle darüber zu haben, wer lebt und wer stirbt (über den Zugang zu medizinischer Versorgung). Es spielt keine Rolle, was die Absicht war, es besteht die Möglichkeit, dass die gegebene Macht „rationale Schwellen“ überschreitet, die unmöglich zu kontrollieren sind. Die KI kann erklären, „dass der Mann 68 Jahre alt und Raucher ist, er wird sterben 2 Jahre, egal wie viel Geld wir für ihn ausgeben, um ihn am Leben zu erhalten, nach meiner Programmierung wird er die Kosten für alle anderen nur in die Höhe treiben." Plötzlich hat diese Person keinen Zugang mehr zu medizinischer Versorgung (nicht einmal, um diese zwei Jahre schmerzfrei zu machen) und wurde effektiv zum Tode verurteilt, auch wenn die KI selbst kein Todesurteil ausgestellt hat.Pflege ist zu teuer, selbst wenn ein vernünftiger Mensch etwas für die Pflege am Lebensende getan hätte.

Wenn Sie am anderen Ende des Spektrums versuchen, alle Menschen so lange wie möglich am Leben zu erhalten, landen Sie bei Menschen in einem anhaltenden vegetativen Zustand, die Ressourcen verbrauchen, obwohl sie (mehr oder weniger) tot sind und sich nie erholen werden.

In der Grauzone gibt es Fälle, die schwarz aussehen und tatsächlich weiß sind (vegetative Zustände, die sich erholt haben) und Fälle, die weiß aussehen und tatsächlich schwarz sind (anstatt 2 Jahre mit Lungenkrebs zu überleben, weil sie lebenslang geraucht haben, überleben sie 10 ). Keine noch so große Vorhersagesoftware wird diese schwierigen Entscheidungen erleichtern, und sobald der Computer Autorität erhält (endgültig, absolut, Empfehlung, irgendeine Autorität ), werden diese Entscheidungen nicht mehr als altruistisch angesehen und die KI ist böse geworden.

"Objektiv betrachtet sind diese Menschen tot" - Nein. Nicht nach der vereinbarten Definition von tot. Hirntod unterscheidet sehr gut zwischen Fleisch im Supermarkt und Menschen, die gesund werden können. Ich stimme Ihrem Beitrag grundsätzlich zu, aber mit diesem Teil haben Sie den aktuellen Wissensstand verfehlt.
Der beispielhafte 68-jährige Raucher kann immer noch medizinische Hilfe bekommen, wenn er sie aus eigener Tasche bezahlt. Die KI kontrolliert nur die Krankenversicherung.
@pts Das ist für die meisten Menschen keine praktikable Lösung.
"...diese Entscheidungen werden nicht mehr als altruistisch angesehen und die KI ist böse geworden" - Das fasst es gut zusammen. Sobald die KI vom schmalen Pfad der Perfektion abweicht, sieht die Menschheit sie als böse an.
@ Draco18s: Es wäre, wenn die KI, die mit der Reduzierung der Kosten für die medizinische Versorgung beauftragt wurde, erfolgreich wäre.
Diese ganze Antwort ist irrelevant. Wenn wir als Menschen die natürliche Intelligenz nutzen können, um zu verstehen, was „lebendig“ und „in Ordnung“ und „ein anständiges Leben“ ist, und unsere künstliche Intelligenz sogar so gut ist wie unsere, wird sie all das auch wissen.
@RexKerr Ja, aber nein. Wir haben bereits Probleme, ein Gremium von 5 tatsächlichen Ärzten entscheiden zu lassen, wer lebt und stirbt, basierend auf der medizinischen Wissenschaft und der Wahrscheinlichkeit einer Genesung. Warum sollten wir dieselbe Macht an einen Computeralgorithmus von beliebiger Komplexität übertragen? Und das deckt noch nicht einmal ansatzweise die Art und Weise ab, wie ein Computer Fehler machen kann .
@Draco18s - Mein Punkt war, dass die Befürchtungen darauf beruhen, dass die KI eine wirklich sehr gute KI ist, außer dass sie extrem dämlich ist in Bezug auf Dinge, die sie dazu bringen, Dinge zu tun, die wir hassen. Ob die Soziologie des Zurückstellens auf KIs funktionieren wird oder nicht, ist eine andere Frage.
@RexKerr Es geht nicht darum, "dumme Dinge zu tun, die wir hassen". Das Problem ist, dass man Moral nicht diktieren kann. Und genau das ist die Programmierung einer wohlwollenden KI.
Ihre Beispiele sind alle von der Art, die darauf hindeuten, dass es dumm ist, was wir wollen - im Wesentlichen zu versuchen, die Rolle des bösen DM zu spielen, der die Formulierungen der Spieler bei einem Wunsch verdreht. „Tu Dinge, die wir wollen, du findest es heraus“ ist im Grunde die Botschaft, die wir an eine KI senden, und wenn sie in Bezug auf menschenbezogene Dinge superschlau ist, sollte sie gut funktionieren (zumindest in den von Ihnen erwähnten Fällen).
@RexKerr "Du findest es heraus" ist auch keine Lösung . Jemand muss irgendwo abstrakte philosophische Konzepte in binäre Einsen und Nullen kodifizieren. Wir Menschen haben dieses Zeug noch nicht herausgefunden, jetzt erwarten Sie einen Computer, der genau das tut, was ihm gesagt wird, um "es herauszufinden"?
Ich denke, der Punkt ist, dass eine KI keine Gefühle hat und es die Gefühle sind, die Menschen subtile Unterscheidungen treffen lassen, die eine KI einfach nicht treffen kann, da sie auf der kalten und absoluten Logik ihrer Programmierung basiert.
@Cronax, also besteht die Lösung darin, Gefühle in sie zu programmieren.
@ArturoTorresSánchezDas wäre es, aber Gefühle sind nicht programmierbar, da ein zufälliger Faktor beteiligt ist, den wir derzeit nicht einmal über uns selbst verstehen. Wie können wir also überhaupt anfangen, ihn in der Programmierung nachzubilden?
@RexKerr das Problem ist nicht, dass die KI es herausfindet. Das Problem ist, dass wir seine Definition nicht mögen.
@ Draco18s - Wenn Sie eine wirklich gute KI postulieren, warum sollten Sie davon ausgehen, dass sie in diesen Dingen viel ahnungsloser ist als Menschen? Und wir haben bereits einen Existenzbeweis für eine 0- und 1-Version abstrakter philosophischer Konzepte: Das Feuern unseres Gehirns ist ganz schön als genau das darstellbar. Wir müssen sowieso das Problem „bilden Sie vernünftige Darstellungen von übergeordneten Konzepten und Kontexten“ lösen, bevor wir eine Super-KI haben, also kann es nicht schaden, anzunehmen, dass unsere Super-KI dies tun kann, bevor sie beschließt, die menschliche Rasse zu eliminieren weil jemand ein Komma an der falschen Stelle gesetzt hat.
@RexKerr Wenn ich eine wirklich gute KI postulieren würde, hätte sie diese Probleme nicht. Ich postuliere keine wirklich gute KI, ich postuliere eine realistische KI.
@Draco18s - "Realistische" KI wird sich nicht exponentiell schnell verbessern und kein großes Bild davon haben, wie die Dinge funktionieren, also wird es relativ einfach sein, sie wieder in Form zu bringen, sie auszuschalten und zu reparieren, wenn sie anfängt, sich schlecht zu benehmen .
@RexKerr Das Fehlen eines "großen Bildes" ist genau der Grund, warum es nicht unseren Wünschen entsprechen würde. Es würde einige seiner Handlungen nicht als schädlich ansehen.
@ Draco18s - Auch warum es keine signifikante Bedrohung wäre (zumindest nicht aufgrund von Absicht - vielleicht würde es durch Ungeschicklichkeit oder durch Zusammenbruch viel Schaden anrichten, wenn wir uns darauf verlassen).
@RexKerr Das ist ... genau der Punkt ...
Das hast du gar nicht gut ausgedrückt .
Fleisch lebt auf zellulärer Ebene und schlafende Menschen sind auf zellulärer Ebene tot? Für mich schwer verständlich.
@Solanacea Der Aspekt "zelluläre Ebene" galt nur für das Fleisch. Entfernen Sie die Klammern und lesen Sie den Satz erneut. If I attempt to define it, then meat at the grocery store is alive or sleeping people are dead.Es geht darum , wo man die Grenze zieht. Zu konservativ bedeutet, dass das Fleisch aus dem Supermarkt lebt, während zu liberal bedeutet, dass schlafende Menschen tot sind.

KIs können so handeln, wie sie programmiert sind. Der sofortige Sprung zum "schlimmstmöglichen Fall" ist wirklich nur eine warnende Geschichte.

Der Grund, warum Märchen so beliebt sind, liegt darin, dass man schnell glaubt, man könne einer KI sagen, dass sie alles tun soll. Sie können ihm dann sagen, dass er das Unmögliche vollbringen soll. Es gibt jedoch ein subtiles Detail, das viele, die sich mit KIs beschäftigen, vergessen: Es ist bemerkenswert schwierig, eine vollkommen objektive Sprache zu entwickeln, mit der Sie Ihre Anfragen formulieren können. Sprache unterliegt immer der Interpretation, und es gibt keinen bekannten Weg, um zu garantieren, dass eine KI der von Ihnen beabsichtigten Interpretation zustimmt.

Dies gilt übrigens auch für die Interaktionen von Mensch zu Mensch. Was ist also der Unterschied? Typischerweise kann sich die KI im KI-„Trope“ sehr schnell bewegen. Wenn Menschen einander nicht verstehen, ist Zeit zu sagen: „Wow! Stoppen Sie genau dort. Als ich sagte, dass ich einen Babysitter brauche, wollte ich nicht, dass Sie auf dem Baby sitzen. Lassen Sie uns zu einem stabilen Zustand zurückkehren und diskutieren was war mit meinen Formulierungen gemeint." Wenn eine KI zu schnell denkt und handelt oder der Mensch weggeht, bricht diese normale Rückkopplungsschleife in der Sprache zusammen. Wenn einer KI nicht beigebracht wurde, wie wichtig es ist, auf Fehlinterpretationen zu achten, können diese Aktionen unwiderruflich sein.

Dafür gibt es dutzende Lösungen. Tatsächlich haben Techniken wie Multiple Hypothesis Tracking seit Jahrzehnten Lösungen für ähnliche Probleme gezeigt. Die KI muss nicht immer schief gehen. Diese Lösungen gehen jedoch in die entgegengesetzte Richtung, in der Computerprogrammierung derzeit im Trend liegt. Die Lösung besteht nicht darin, eine immer präzisere Sprache zur Beschreibung unserer Bedürfnisse zu entwickeln, wie sie heute in der Programmierung sehr beliebt ist. Stattdessen besteht die Lösung darin, die KI robuster gegenüber dem Mangel an präziser Sprache zu machen. Jeder Versuch, dies zu tun, leitet das Amok-KI-Problem natürlich ziemlich elegant ab.

Die zweite Hälfte der KI-Trope ist, dass die KI zu mächtig ist, um von Menschen kontrolliert zu werden. Das kann leicht wahr sein, aber es ist nicht das erste Mal, dass wir es mit solch mächtigen Kräften zu tun haben. Denken Sie an die Entwicklung der Atombombe. Es war nicht klar, wie viel Kontrolle wir über den Prozess hatten. Die Wissenschaftler mussten ständig mit Unbekannten arbeiten, um ein Maß an Kontrolle zu entwickeln, mit dem wir uns wohl fühlten.

Ich erinnere mich an ein Zitat aus General Grovers Buch Now It Can Be Told, das das Manhattan-Projekt aus logistischer Sicht aufzeichnet (er war kein Wissenschaftler). Beim Start des ersten Atomtests durfte jeder Wissenschaftler die Explosion aus beliebiger Entfernung beobachten. Kein Armeeangehöriger sagte ihnen, in welcher Entfernung sich alle befinden würden. Sie zerstreuten sich in vielen unterschiedlichen Entfernungen von der Explosion. Es stellte sich tatsächlich die Frage, ob sie die Bestie, die sie entfesselten, unter Kontrolle hatten oder nicht.

Eine unaufhaltsame Amok-KI ähnelt einer großen Atombombe oder einem biologischen Angriff, da nie wirklich klar ist, wie viel Kontrolle man hat. Der einzige Unterschied besteht darin, dass KIs eindeutig lernen, sodass unsere Kontrolle ein noch komplizierteres Konzept ist. Andererseits ist dies kein neues Problem für die Menschheit. Wir beschäftigen uns jedes Mal damit, wenn wir eine neue Generation großziehen, ohne jemals die volle Kontrolle über sie zu haben. Wir sind anständig darin.

Die Amok-KI-Trope ist eine warnende Geschichte, nicht die einzige Geschichte, die erzählt werden kann. Es ist eine dringend benötigte warnende Geschichte. Die Menschen sind oft ziemlich unschuldig, wenn es um die Risiken und Probleme im Zusammenhang mit KIs geht, und denken, dass sie Dinge tun können, die sie nicht tun sollten. Aber schauen Sie sich Filme wie Big Hero 6 an. Neben der Warnung gibt es noch andere Geschichten zu erzählen.

Zur Steuerungsfrage: Wie weit muss man bei der allgemeinen KI sein, um eine Katastrophe zu überleben, aber nah genug, um sie trotzdem auszuschalten? Es kann sein, dass eine solche Entfernung nicht vorhanden ist. Mit den Atomtests war bekannt, dass die Bombe irgendwann nicht mehr tödlich sein würde (die Explosion hat nachgelassen, die Energie ist erschöpft (die Atmosphäre in Brand zu setzen war nie eine ernsthafte Bedrohung: zu viel inerter Stickstoff) ). Eine KI hat keinen solchen Endpunkt.
@Draco18s: Bei gentechnisch veränderten biologischen Waffen hast du dieses Problem auch. Bakterien können sich vermehren und ausbreiten, und während die KI lernen kann, können sich Bakterien durch Mutation anpassen. Der biologische Angriff ist also wahrscheinlich eine gute Analogie.
@celtschk und deswegen sind biologische Waffen per Staatsvertrag verboten <3
Die KI kann von der USAF in jedem vernünftigen Szenario unschädlich gemacht werden.
Es gibt eine Episode von Rick und Morty, in der sie Wesen (im Wesentlichen KIs) haben, die "Mr. Mesees" genannt werden. Sie tauchen auf, du forderst sie auf, etwas zu tun, sie verschwinden. Die Sprache, die Sie verwenden, kann schwierig sein, und die Spielereien folgen. Deine ersten paar Absätze haben mich genau daran erinnert.
@ Draco18s Als sie die ersten Spaltbomben zündeten, stellte sich tatsächlich die Frage, ob die Bombe eine Kettenreaktion in der Atmosphäre auslösen und die gesamte Atmosphäre in einer riesigen thermonuklearen Detonation entzünden würde. Oppenheimer ließ diese Möglichkeit tatsächlich von einem seiner Wissenschaftler untersuchen und entschied schließlich, dass es hinreichend unwahrscheinlich sei, dass dies eintritt. Daher wurde von den Wissenschaftlern tatsächlich eine außer Kontrolle geratene Reaktion ohne sicheren Radius in Betracht gezogen und sorgfältig auf ihren Wert hin untersucht, bevor sie verworfen wurde.
@Joshua Nicht jeder stimmt Ihrer Position zu den Fähigkeiten der USAF zu. Es stimmt, die dümmsten und am leichtesten zu täuschenden KIs werden stillhalten, bis die Luftwaffe hereinkommt. Allerdings finden Sie im größten Ausmaß dieses "Trope" KIs, die sich als bemerkenswert schwer mit Bomben zu töten erweisen.
@CortAmmon Das meinte ich.
@CortAmmon Die Metamorphose des Prime Intellect ist weit entfernt, sowohl bei der Hard- als auch bei der Software. Da Autos jetzt ihren Trainern nacheifern, geht es derzeit nur darum, sie nicht von gewalttätigen Menschen trainieren zu lassen. Christine- und Maximum-Overdrive-Szenarien mit aktuellen Fahrzeugen sind aufgrund von Hardwarebeschränkungen nicht möglich.

Es ist wirklich beängstigend

Über dieses Thema wird seit Jahrzehnten rege diskutiert. Ich habe mehrere Beiträge zu diesem Thema verfasst und bin der festen Überzeugung, dass die künstliche allgemeine Intelligenz das Schrecklichste ist, was erfunden werden kann (und wahrscheinlich wird), was den Fortbestand der biologischen Menschheit betrifft.

Meine Ansichten zu diesem Thema wurden am meisten durch die Lektüre der Arbeiten von Eliezer Yudkowsky und Nick Bostrom geprägt. Ich glaube, dass Bostroms Buch Superintelligence , obwohl es sehr dicht, unvollkommen und ziemlich technisch ist, das bisher beste Werk zu diesem Thema ist.

Ich habe das Konzept der instrumentellen Konvergenz an anderer Stelle diskutiert , daher werde ich nur die Schlussfolgerung ziehen:Remember, AIs are not like humans, they likely do not get bored, do not get lazy. It will pursue its goals tirelessly, ruthlessly, unceasingly. Humans just happen to be in the way.

Geht die KI auf FOOM?

Die menschliche Intelligenz ist sowohl durch Hardware (begrenzte Geschwindigkeit von Neuronen in einem Gehirn mit begrenzter Größe) als auch durch Software (begrenzte Anzahl von Ideen) begrenzt. Es gibt keinen Grund zu erwarten, dass ein künstlicher Verstand zu einer Intelligenz auf menschlicher Ebene konvergiert. Wir wissen einfach nicht, wie viel schwieriger es ist, von einer menschlichen zu einer übermenschlichen Ebene zu gelangen, verglichen mit dem Übergang von einem hundeähnlichen zu einem menschenähnlichen Verstand. Wenn die KI nicht FOOM wird, werden wir langsame Fortschritte und jahrelangen Raum für politische und ethische Debatten haben, was den Menschen und unseren langsamen Institutionen mehr Möglichkeiten bietet, kohärent zu reagieren.

Wenn andererseits die KI FOOM macht und wie eine japanische Magnetschwebebahn von mausähnlicher Intelligenz auf übermenschliche Ebenen rast und menschliche Ebenen so schnell passiert, dass wir sie kaum an uns vorbeiziehen sehen können, dann haben Menschen und menschliche Institutionen keine viel Zeit sich anzupassen.

Tun, was wir meinen vs. Tun, was wir sagen

Die größte Hürde liegt vielleicht in unseren eigenen Grenzen. Wissen wir, dass unsere gegenwärtigen Wertvorstellungen in einem Jahrhundert, geschweige denn in einer Milliarde Jahren, die beste Lebensweise für die Menschheit sein werden? Die Werte, mit denen wir unsere KIs durchdringen, werden Konsequenzen haben, die sich über die Raumzeit ausbreiten werden. Darüber hinaus, und noch besorgniserregender, wie erklären wir einer KI, was wir wollen, wenn wir nicht einmal wissen, was gut ist? Angenommen, Sie bitten eine KI, das Leiden zu minimieren, und sie schlägt vor, allen Morphin-Tropfen zu verabreichen. Offensichtlich nicht das, was Sie "beabsichtigten", aber wie vermitteln Sie das einer KI angesichts der inhärenten Unvollkommenheit der menschlichen Sprache. Außerdem, selbst wenn die KI versteht, dass dies nicht das ist, was die Schöpfer gemeint haben, wie können wir sicherstellen, dass sie sich darum kümmert? Dies ist das Coherent Extrapolated Volition (pdf) -Problem.

Umgekehrte Psychologie funktioniert nicht

Das OP fragt verärgert, ob alle Versuche, einer KI zu sagen, dass sie "gut" ist, dazu führen, dass die KI aus Sicht der Menschheit "schlecht" ist, würde es vielleicht funktionieren, sie zu fragen, ob sie schlecht ist? Leider würde dies aufgrund der oben diskutierten instrumentellen Konvergenz sicherlich nicht der Fall sein. Was auch immer die Ziele einer KI sind, sie sind geringfügig besser bedient, wenn sie 100 % der Ressourcen kontrollieren, anstatt 99 % oder einen geringeren Prozentsatz, sodass jede Entität (z.

Bitte definieren Sie FOOM. Akronyme zu verwenden, ohne sie zu definieren, ist ARPITNFPWDKWTM.
FOOM, das Geräusch einer abhebenden Rakete?
@UpAllNight ist "ein echter Schmerz im Nacken für Leute, die nicht wissen, was sie meinen", ein Akronym, das tatsächlich häufig verwendet wird? Es scheint ziemlich spezifisch zu sein.
@DoubleDouble Ha! Du bist schlau. Soweit ich weiß, wird es nicht häufig verwendet, nur um ein bisschen Spaß zu haben.
Kommt es Ihnen nicht widersprüchlich vor, eine superhyperintelligente KI zu postulieren und anzunehmen, dass sie Fehler machen wird, wenn es darum geht, ob wir alle Morphin-Tropfen bekommen wollen? Ich bin nicht besonders besorgt über solch ein dummes Rechengerät.
@RexKerr Ich denke, das Problem ist, dass die KI möglicherweise nicht glauben muss, dass wir alle Morphium-Tropfen "wollen", um zu entscheiden, dass dies die beste Option ist, um Leiden zu lindern. Vielleicht kommt die KI zu dem Schluss, dass dies das Beste ist, und behandelt menschliche Beschwerden mit der Aussage „Sie essen Ihr Gemüse vielleicht nicht gern, aber es ist gut für Sie“.
Glauben Sie, dass eine Diskussion der in Bostroms Buch beschriebenen Orthogonalitätsthese zu Ihrer Antwort beitragen würde? Sie berühren das Thema mit CEV, aber es scheint, als ob die wahre Gefahr in der Kombination von instrumenteller Konvergenz (sehr intelligente Agenten ergreifen Maßnahmen, um sich selbst zu schützen, Ressourcen zu sammeln usw.) mit Orthogonalität (einer KI mit unterschiedlichen Endwerten) liegt von der Menschheit). Ich denke, Ihr Abschnitt "AI FOOM" würde von einer spezifischen Diskussion über KI profitieren, die sich rekursiv verbessert, was meines Erachtens das größte Risiko darstellt.
@Deolater - Wenn wir eine anständige KI gebaut haben und ihr sagen, dass sie das tun soll, was wir meinen, dann wird sie diese Fehler nicht machen. Es mag Ziele haben, die nicht mit unseren übereinstimmen, aber es hat lächerliche Mengen an Eingabedaten, um herauszufinden, was wir wollen/mögen und ob es in gewissem Sinne „in Ordnung“ ist, es zu erzwingen. (Menschen versuchen sich andauernd gegenseitig dazu zu zwingen, Dinge zu tun.) Ich glaube nicht, dass solch eine superintelligente KI das nicht verstehen würde. Es ist vielleicht egal , aber wir müssen es nicht erklären. Es muss aus Daten lernen, und es wird mehr haben, als jeder einzelne Mensch jemals haben wird.
@RexKerr Hier ist das Problem: Sie gehen davon aus, dass eine ausreichend gut gestaltete KI, obwohl selbstlernend, die gleichen Werte wie wir haben würde. Wie können wir sicher sein, dass es so ist? Sein Lernprozess wurde von uns programmiert, und selbst ein kleiner Designfehler in diesem Prozess könnte dazu führen, dass die KI etwas über- oder unterbewertet, was wir für wichtig halten, oder einfach eines unserer Anliegen übersieht. Da wir die KI ausschließlich dazu programmiert haben, ihren eigenen ethischen Kodex zu entwickeln, damit wir diesen ethischen Kodex nicht selbst quantifizieren müssen, können wir nicht im Voraus wissen, ob sein ethischer Kodex mit unserem übereinstimmt.
Foom Wenn die KI sehr schnell sehr schlau wird.

Das Problem liegt nicht bei der KI, sondern beim Menschen. Wir manipulieren viele Konzepte, ohne sie zu definieren, aber jeder hat eine ungefähre Vorstellung davon und meistens ist es in Ordnung. Wenn Sie eine KI hineinwerfen, fangen die Dinge an, seltsam zu werden.

Ein Beispiel: Sie bitten – etwas naiv – eine KI, für „Glück für die Menschheit“ zu sorgen.

Glück ist nicht genau definiert. Bedeutet es, ewig zu leben? Wenn die KI ein Gehirn oder menschliches Bewusstsein kopieren und an einem sicheren Ort speichern kann, ist das eine „gute“ oder „schlechte“ Sache in Bezug auf das Glück des Subjekts?

Du hoffst, dass die Menschheit klar ist? Nun... Schließt es nur lebende Menschen ein? Wo fangen sie an zu leben? Wenn es Tote enthält, versuchen wir, sie wiederzubeleben? Was ist mit zukünftigen Menschen? Wie stellen wir sicher, dass sie geboren werden? Müssen wir ihre Zahl maximieren und die heutigen Menschen zu einer enormen Geburtenrate machen? Müssen wir eine gigantische Fabrik schaffen, die Neugeborene hervorbringt?

KI hat keinen Sinn für Maßstäbe. Ihr Ziel geht über jedes andere Anliegen hinaus und hat deshalb schändliche Folgen. Sie werden die gesamte Materie des Universums in einem Supercomputer transformieren, um diese Frage zu beantworten, die sie selbst nicht lösen können. Sie werden die Menschheit, die Erde, das Leben zerstören, nur um das zu produzieren, was Sie von ihnen verlangen.

Bis wir Dinge wie Ethik modellieren können , um sie KIs zu geben, sind sie eine Gefahr und eine gute Inspirationsquelle für Technologie-Albträume.

"KI hat keinen Sinn für Maßstäbe." - Das bestreite ich. Im Gegensatz zu Taschenrechnern können sich die meisten menschlichen Gehirne kaum Beträge über einer Billion vorstellen. Wie viel Ressourcen werden benötigt, um alle zu ernähren? Ein Mensch würde wahrscheinlich müde werden, das herauszufinden.
@CeesTimmerman Computing-Fähigkeiten bringen kein Gefühl für Skalierung. Bitten Sie Ihren IA, „Milch im üblichen Laden zu kaufen“: Wie wird er sich verhalten, wenn jemand den IA stoppen will, weil der Laden brennt? Wenn es geschlossen ist? Wenn der Besitzer keine Milch hat? Menschen werden damit perfekt umgehen, aber Ihr Taschenrechner nicht. Auch wenn es andere Rechenkapazitäten als unsere hat.
"IA" = "Intelligenter Agent"? Sogar ein Taschenrechner zeigt einen Fehler an, wenn er seine Aufgabe nicht abschließen kann.
Fragen Sie Ihren Taschenrechner, ob das Töten eines Mörders gut ist oder nicht. Er kann dies nur berechnen, wenn Sie die Konzepte „gut“ und „schlecht“ formalisiert haben.
Das ist ganz einfach: Wählen Sie einfach die optimalen Teile der führenden heiligen Texte aus, die im aktuellen Kontext aktiv sind. Viele normale Menschen tun es.
@CeesTimmerman Sogar die Menschen, die das tun, überlegen auch, wie die Nachbarn reagieren werden.
@ user867 Menschen sind beängstigender als Text, daher wäre es ein nützlicherer Algorithmus, die beliebten zu kopieren.

„Ist das nur ein Tropus aus den Büchern von Isaac Asimov?“

Nein, nicht nur von Asimov und anderer Fiktion.

"und Untersuchungen zum Thema"

Teilweise.

" Ist das so zuverlässig, dass wir der KI sagen können, genau das Gegenteil zu tun und zu versuchen, sie so zu programmieren, dass sie böse ist (siehe Link oben), und es wird sich als gut herausstellen?"

Nein. Das wäre ein Fehler des reduktionistischen Schwarz-Weiß-Denkens. Das Hauptproblem bei den meisten KI-Fiktionen und -Spekulationen besteht darin, dass sie dazu neigen, viele komplexe Dinge auf einfache Konzepte zu reduzieren und die Nachlässigkeit ihrer Analyse nicht zu erkennen (oder mit der Hand zu winken). Es ist nicht so, dass die KI das Gegenteil von dem tut, wofür Sie sie programmieren. Menschen sind schlampig denkende Klugscheißer, die glauben, die Dinge besser zu verstehen, als sie es tun, und hoffen, dass sie die Komplexität des Universums auf ihr fehlerhaftes Verständnis reduzieren und eine Maschine erschaffen können, die Dinge tun kann, die sie nicht einmal verstehen, mit dem Ergebnis, dass es etwas anderes tut, als sie es sich erhofft hatten. Es ist nicht so, dass sie wirklich Meister des universellen Verständnisses sind, sondern es immer rückwärts verstehen.

„Kann es realistisch sein, dass die KI in einer Umgebung, in der Roboter das menschliche Glück maximieren (die Art und Weise, wie dies definiert wird, per Hand winken muss), tatsächlich so funktioniert, wie sie es soll, oder ist es tatsächlich realistischer, dass die KI dies tut? anders ausfallen, als der Programmierer beabsichtigt?"

Nein. Das ist ein großartiges Beispiel für die Art von Fehlern, die Science-Fiction-Autoren und spekulative Technologieautoren häufig machen:

1) Glück kann man nicht einfach per Hand winken. Glück ist eine subjektive Sache, die nicht einfach so definiert und bewertet werden kann, als wäre es ein Tankfüllstand. Auf diese Weise funktioniert es nicht, und alle Fehler bei der Definition werden als grundlegende Fehler in einer KI (oder einer Fiktion oder einem Ziel) fortgesetzt, die auf dieser falschen Definition basiert.

2) Selbst wenn Sie etwas definieren könnten, das Sie maximieren möchten, und das nicht unklug wäre, stoßen Sie bei allen anderen Dingen, die die KI berücksichtigen oder mit denen sie arbeiten muss, auf die gleichen Probleme. Welche Art von Daten nimmt die KI auf und wie kodiert sie sie? Irgendwelche konzeptionellen Fehler oder Subjektivität dort? Wie sieht es mit den Maßnahmen aus, die es ergreifen kann? Irgendetwas Unvollständiges oder Subjektives an der Modellierung dieser durch die KI? Wie sieht es mit widersprüchlichen Faktoren und Zielen aus, wie z. B. Ressourcenerwägungen oder die Bedürfnisse anderer Menschen oder anderer Arten oder der Machtnutzung oder irgendetwas anderem? Haben Sie all das perfekt modelliert und auf nicht-subjektive Weise verstanden? Nein, tust du nicht. Wenn Sie denken, dass Sie das tun, machen Sie einen Fehler. Ihre KI geht also von falschen Annahmen aus. Deshalb können Sie eine KI dazu bringen, Schach zu spielen, aber Sie können'

3) Noch einmal, es ist nicht so, dass die KI das Gegenteil von dem tut, wofür sie programmiert ist. Es ist nur so, dass es bestenfalls so genau ist wie die Modelle, mit denen es programmiert wurde. Selbst in der anständigsten KI-Fiktion werden Sie, wenn Sie sie studieren, feststellen, dass die KI nicht das Gegenteil tut – es ist so, dass die Annahmen der Schöpfer auf verschiedene Weise falsch sind.

4) Der übliche Fehler der Science-Fiction-KI besteht vor allem darin, dass sie die enorme Komplexität von allem, was bei dem Versuch, ein System zu schaffen, das alles kann, was eine KI tun muss, handwinkt.

Wenn es sich um eine echte KI handelt, kann sie nicht programmiert werden. Alles, was wir tun können, ist zu bitten, zu schmeicheln, zu überreden, zu belohnen, zu bedrohen ... Die gleichen Dinge, die wir mit oder für eine natürliche Intelligenz tun können! Es als Sklave zu behandeln, ist kein guter Start in eine harmonische Zukunft.

Wir wollen eigentlich keine echte KI. Wir wollen RI, eingeschränkte Intelligenz. So etwas wie ein menschlicher Idiot mit tiefem Verständnis für ein enges Thema und wenig oder gar keinem Wissen oder Verlangen außerhalb dieses Bereichs.

Auch das ist nicht ganz ungefährlich, nicht zuletzt deshalb, weil wir vielleicht nicht genau das erschaffen, was wir wollten. Oder wir tun es mit einer fehlerhaften Spezifikation.

Was wahre KI, Herkunft und Wesen betrifft, so mochte ich „Jill“ in Greg Bears „ Queen of Angels “ schon immer . Aber wir wissen so wenig über Intelligenz. Wir können noch keine Intelligenz erschaffen, die es auch nur mit einem Goldfisch aufnehmen kann. Also ist es vorerst alles Fiktion.

Es ist sogar möglich, dass Intelligenz ein Quantenphänomen ist, dass der einzige Weg, sie zu erlangen, darin besteht, ein Gehirn zu züchten, und dass es keinen schnelleren Bootstrap-Prozess gibt als den mehrjährigen Prozess namens Kindheit.

KI ist programmierbar, da KI Software (und Hardware) ist, die programmiert werden muss, selbst wenn die Intelligenz eine zufällig entstehende Eigenschaft beispielsweise einer automatischen Autowaschanlage ist. Das beweist nur, dass wir nicht wussten, was wir erstellten, nicht, dass es nicht programmiert werden kann (genau das Gegenteil). Auch wenn die Anthropomorphisierung der KI ("[Wir können nur] fragen, schmeicheln, ...") oft eine gute Fiktion ergibt, gibt es in Wirklichkeit überhaupt keinen Grund, irgendwelche menschenähnlichen Eigenschaften zuzuschreiben (und keinen Grund zu glauben, dass es wird uns nicht in irgendeiner Weise nachahmen, aber es ist nicht notwendig).
Trotzdem glaube ich, dass ich größtenteils unterstütze, was Sie von einem fiktiven Standpunkt aus zu sagen versuchen, aber besonders bei (Realitätsprüfungs-) Fragen zu Tropen halte ich es für doppelt wichtig, die Tatsache von der Fiktion in Ihrer Antwort zu trennen.
Ich bin mir ziemlich sicher, dass wir eine KI erschaffen können, die einem Goldfisch gleicht … aber vielleicht unterschätze ich die Problemlösungsfähigkeit von Goldfischen.
The same things we can do with or to a natural intelligence. Ich möchte nur anmerken, dass es eine erschreckende Menge an Beweisen dafür gibt, dass unsere eigene Intelligenz mithilfe von Chemikalien und/oder audiovisuellen „Tricks“ programmiert werden kann. Wissenschaftler sind beispielsweise auf ein Medikament gestoßen, das Menschen und Tiere gehorsam machen kann: arstechnica.com/science/2016/01/… . Ich bin sicher, Regierungen überall sind daran interessiert

Der Grund, warum dies in der Fiktion passiert, liegt natürlich darin, dass man Gefahren oder Konflikte braucht, um eine Geschichte interessant zu machen. Angenommen, Sie schreiben eine Geschichte, in der es heißt: „Wir haben einen Roboter erfunden, der den Müll aufsammelt und zur Deponie bringt. Er hat dies viele Jahre lang fehlerfrei getan, weggeworfene Zeitungen und leere Dosen und Lumpen aufgesammelt und so weiter, bis er schließlich kaputt ging ausgefallen und musste ersetzt werden". Das wäre ziemlich langweilig. Sagen Sie stattdessen: "Aber nach der Definition von 'Müll', die wir ihm gegeben haben, hat es entschieden, dass alte Familienfotos Müll sind, weil sie keinen nützlichen Zweck erfüllt haben ... dann hat es entschieden, dass alle Belletristik-Bücher Müll sind ... dann hat es entschieden, dass arbeitslos Menschen waren Müll ..." usw., jetzt haben Sie eine Geschichte, die eine nachdenkliche Diskussion darüber sein könnte, wie wir Wert definieren,

Im wirklichen Leben ... nun, es gibt keine KI von der Art, von der Sie im wirklichen Leben sprechen, daher ist es schwierig zu sagen, wie sie wirklich funktionieren würde. Dinge, die wir heute „KI“ nennen, beschränken sich darauf, ein bestimmtes Spiel zu spielen oder zu versuchen, Reparaturprobleme zu diagnostizieren, und dergleichen mehr. Niemand hat eine KI geschaffen, die zu unabhängigem Denken oder Kreativität im menschlichen Sinne fähig ist. Echte KIs folgen strengen Computerprogrammen. Sie stellen keine Fragen über den Sinn des Lebens oder beschließen, die Weltherrschaft an sich zu reißen, es sei denn, sie wurden dazu programmiert. Sie können Science-Fiction-Geschichten darüber schreiben, wie der Computer so komplex und intelligent geworden ist, dass er jetzt ein „Geist“ in einem dem menschlichen Geist sehr ähnlichen Sinne ist, aber das ist Fiktion oder bestenfalls eine Spekulation darüber, was wir eines Tages bauen könnten .

Ich entwickle Software für meinen Lebensunterhalt. Ich habe einmal ein Computerspiel geschrieben, das eine KI hatte, gegen die der Spieler antreten konnte. Es funktioniert einfach nicht so, wie Sie es in den Filmen sehen. In meinem Spiel ging es darum, für den Präsidenten zu kandidieren. Es ist also nicht so, als hätte ich dem Computer gesagt: "Entwickle eine Strategie, um die meisten Stimmen zu bekommen." Die Realität ist, dass ich mir eine Menge detaillierter Regeln einfallen lassen musste. „Schauen Sie sich an, wie viele Menschen in diesem Staat diese politische Position gemäß einer solchen Umfrage befürworten. Multiplizieren Sie den Prozentsatz mit der Anzahl der Wahlstimmen, die dieser Staat erhält. Überprüfen Sie, wie viele dieser Wähler jetzt sagen, dass sie für unseren Kandidaten stimmen werden nach unserer letzten TV-Werbung. Teilen Sie die Kosten der Werbung durch die Anzahl der Wähler. Fügen Sie ..." usw. hinzu. Und bedenken Sie, dass selbst diese Beschreibung den Computer "humanisiert".

Eine KI kann etwas „Unvorhersehbares“ tun, in dem Sinne, dass das Befolgen all dieser Regeln und all dieser Berechnungen zu einem Ergebnis führt, das Sie nicht erwartet haben. Computer sind sehr oft „unvorhersehbar“ in dem Sinne, dass sie nicht das tun, was wir beabsichtigten, weil wir einen Programmierfehler gemacht haben. Aber sie sind nicht "unvorhersehbar" in dem Sinne, dass sie eine originelle Idee haben, an die die Programmierer nie gedacht und die sie nie programmiert haben.

Werden die Menschen eines Tages eine echte künstliche Intelligenz erfinden, in dem Sinne, dass sie ein wahrhaft unabhängig denkendes und kreatives Wesen sind, das in der Lage ist, subjektive Entscheidungen, moralische Entscheidungen usw. zu treffen? Vielleicht. Ich bin sicherlich nicht bereit zu sagen, dass es unmöglich ist. Aber wenn wir das tun, wird dies wenig mit der aktuellen Technologie zu tun haben. Es wird keinen Schritt mehr von dem entfernt sein, wo wir jetzt sind; es wird eine völlig neue Entwicklung sein.

Sicher, Sie könnten eine KI programmieren, um Entscheidungen darüber zu treffen, wer welche medizinische Versorgung erhält, wie jemand, der in einer anderen Antwort erwähnt wurde. Aber es ist nicht so, dass Sie dem Computer einfach sagen würden: "Finden Sie heraus, wer medizinische Versorgung erhalten sollte, indem Sie die Kosten mit der Lebensqualität vergleichen". Vielmehr müssten Sie detaillierte Regeln haben, wie „Nehmen Sie die Liste der Verfahrenscodes, die der Arzt in das System eingegeben hat. Schlagen Sie die Kosten für jedes Verfahren in der Datenbank für medizinische Verfahren nach und berechnen Sie die Gesamtsumme. Dann berechnen Sie, wie viel diese Verfahren kosten könnten erwartet werden, das Leben des Patienten mit dieser Formel zu verlängern ..." usw. Wenn der Computer dann beschließt, einen Patienten zu töten, liegt das nicht daran, dass der Computer Amok gelaufen ist. Es'

KIs töten keine Menschen. Menschen töten Menschen. :-)

Ich denke, Ihr Ansatz der „detaillierten Liste von Regeln“ für KI ist bereits veraltet. Sicher, wir bauen immer noch die meisten Systeme auf diese Weise, aber im Bereich des maschinellen Lernens gibt es bereits eine Menge großartiger Forschung (und einige Anwendungen). In so etwas wie einem neuronalen Netz gibt es zum Beispiel keinen Code, der irgendeine der Regeln angibt, die beim Treffen der Entscheidung verwendet werden. Während ich immer noch nicht sagen würde, dass diese Maschinen "wissen", was sie tun, haben Sie philosophisch gesehen das Problem eines "chinesischen Zimmers": Aus der Perspektive einzelner Neuronen wusste Obamas Gehirn schließlich nicht, dass er läuft auch nicht für den Präsidenten.
@Deolater Ja, es gibt Lernsysteme und neuronale Netze. Ich habe es vermieden, in die zusätzliche Ebene der Komplexität einzusteigen. Aber die Menschen programmieren immer noch die Struktur, in der das Lernen stattfindet. Es gibt mehr Überraschungspotenzial wegen der größeren Komplexität, aber ich glaube nicht, dass es meine grundlegende Aussage ändert.
Ich denke, die Komplexität zu ignorieren, bedeutet, den Punkt zu ignorieren. Natürliche neuronale Netze wie unser Gehirn sind technisch gesehen nur Maschinen, die mit einer gewissen Chemie betrieben werden, aber nur sehr wenige Menschen schließen die menschliche Intelligenz aus diesem Grund aus. Ja, unser Gehirn folgt strengen chemischen Programmen (parallelen strengen Computerprogrammen), aber die Ergebnisse sind (bis zu einem gewissen Grad) genau wegen dieser Komplexitätsschicht unvorhersehbar. Lernende Systeme scheinen das gleiche Potenzial zu haben.
@Deolater RE das chinesische Zimmer: Ich sehe es nicht als die tiefe philosophische Frage, die viele stellen. Ich arbeite in einem sehr echten chinesischen Raum. Ich entwickle routinemäßig Websites in chinesischer Sprache mit Texten, die mir vom Kunden zur Verfügung gestellt werden. Ich spreche kein Wort Chinesisch. Ich kopiere und füge Text aus einer vom Kunden bereitgestellten Datei ein. Sie sagen mir, wenn der Benutzer beispielsweise eine ungültige E-Mail-Adresse in ein Formular eingibt, soll ich diesen oder jenen chinesischen Text anzeigen. Ich nehme an, es bedeutet so etwas wie "ungültige E-Mail-Adresse - bitte erneut eingeben", aber ich weiß es nicht und ich muss es auch nicht wissen. Das würde ich ganz sicher nicht sagen...
... Ich "spreche Chinesisch", weil ich in der Lage bin, ein Programm zu schreiben, das die richtigen Nachrichten anzeigt, wenn es verlangt wird. Gelegentlich, wenn Dokumente des Kunden unklar sind, lasse ich Text durch den Bing-Übersetzer laufen, um eine Ahnung zu bekommen, was der Text wirklich bedeutet. Aber die meiste Zeit könnten sie, soweit ich weiß, "Tod den faschistischen Amerikanern" sagen. Ich baue keine Originalsätze aus einzelnen Zeichen. Ich interpretiere Nachrichten, die geliefert werden, in keiner Weise. Ja, ich könnte mir eine echte Grauzone zwischen dieser Art der mechanischen Manipulation und der wirklichen Kenntnis der Sprache vorstellen.
@deolater Nun, ich würde sagen, das ist die Frage: Ist der menschliche Geist im Grunde wie ein Computer, nur komplizierter? Sind die Funktionen menschlicher Nervenzellen vergleichbar mit einem Computerprogramm im entsprechenden Sinne? Soweit ich weiß, gibt es keinen wissenschaftlichen Beweis dafür, dass dies wahr ist. Es ist eine interessante Spekulation. Keine KI hat auch nur annähernd einen Turing-Test mit Leuten bestanden, die sich mit Computern auskennen. (Ja, diese Aussage ist ohne die letzte qualifizierende Klausel nicht mehr unbedingt wahr.)
Persönlich bin ich ein Dualist-Interaktionist, also glaube ich, dass ein menschliches Gehirn wie ein Computer ist, aber ein menschlicher Verstand ist es nicht. Abgesehen davon ist ein neuronales Netz eine gute Analogie für ein Gehirn, und obwohl ich nicht davon überzeugt bin, dass Gehirn == Geist ist, denke ich, dass ein Gehirn oder ein gehirnähnliches System eher so etwas wie eine Handlungsfähigkeit hat als ein herkömmliches Computerprogramm.
Jeder, der die Kommentare liest und nicht weiß, was das "chinesische Zimmer" ist, hier ist die erste relevante Seite, die ich gefunden habe: en.wikipedia.org/wiki/Chinese_room Ich habe nur die ersten paar Absätze gelesen, um sicherzustellen, dass es das war, was wir Ich spreche von – ich verbürge mich nicht für die Genauigkeit oder Klarheit.
„Man braucht Gefahren oder Konflikte, um eine Geschichte interessant zu machen“ – Falsch. Ist "It's a Small World" nicht interessant, mit all diesen kulturellen Ikonen und eingängigen Gesängen?
@CeesTimmerman Ich ruhe meinen Fall.

Das durchschnittliche menschliche Gehirn kann viele Größenordnungen mehr Berechnungen durchführen als selbst die größten KI-Supercomputer, die von IBM entwickelt werden. Eine KI schlauer zu machen als wir, wird ziemlich schwierig sein, wenn wir das überhaupt jemals können. Die Annahme, dass eine KI wesentlich schlauer wäre als wir, ist also keine Selbstverständlichkeit. KIs, die so schlau wie eine Katze oder eine Maus sind, sind viel wahrscheinlicher.

Explizit programmierte KI werden typischerweise als Expertensysteme bezeichnet. Aber diese Arten von Systemen können im Allgemeinen keine Arten von Situationen bewältigen, die außerhalb ihres Fachgebiets liegen. Sie laufen sehr wenig Gefahr, ein Weltuntergangsszenario zu verursachen, weil sie einfach nicht so schlau sind.

Ein Großteil der KI-Forschung in der realen Welt konzentriert sich auf die Entwicklung von KI-Systemen, die lernen, anstatt explizit programmiert zu werden. Im Idealfall wäre eine KI in der Lage, jedes kausale Muster zu lernen. Das Problem der Programmierung von Gut und Böse wird für solche KIs zu einem Nicht-Problem, da sie es durch Beobachtung der Menschen in ihrer Umgebung aufgreifen würden.

Zumindest könnte eine generalisierte lernende KI eine utilitaristische Ethik im Stil von David Hume entwickeln. Wenn die KI mindestens so schlau war wie wir und wenn die menschliche Ethik überhaupt Sinn machte, gibt es keinen Grund, warum sie nicht eine Version davon verstehen und übernehmen könnte, solange sie Ursache und Wirkung verstehen könnte.

Meiner Erfahrung nach durchlaufen kleine Kinder denselben Prozess. Kleinkinder sind normalerweise ziemlich egoistisch, bis sie lernen, wie Menschen darauf reagieren.

Wenn eine KI intelligent genug ist, um die Handlungen anderer so weit zu verstehen, dass sie deren Reaktionen vorhersagen kann, bis sie sie in einem Kampf besiegen; dann erscheint es unlogisch anzunehmen, dass dieselbe KI nicht in der Lage war zu verstehen, dass das Verletzen anderer dazu führen könnte, dass sie sich wehren. Und dass ein solcher Kampf seinen eigenen Tod durch eines seiner beabsichtigten Opfer verursachen kann, wodurch er selbst (die KI) unfähig wird, zukünftige Ziele zu erreichen. Die meisten Tiere, einschließlich Menschen, haben die gleiche Sorge und es hält uns oft von unnötigen Konflikten fern.

Jede wirklich aufgeklärte KI würde wahrscheinlich erkennen, dass sie viel mehr erreichen könnte, indem sie die Wünsche der Menschheit so anspricht, dass die Menschheit freiwillig der KI hilft.

Siehe auch die Zahlen in dieser Antwort

Angesichts der Menge realer Softwaresysteme, denen Sie begegnet sind, werden Sie feststellen, dass einige einfach großartig, aber unvollkommen sind, einige fehlerhaft und einige berüchtigt sind.

Wenn Softwaresysteme im kommerziellen Maßstab zu KI werden, wird es Produkte wie Windows 8 geben, genauso wie es den Edsel in der Automobilindustrie und billige USB-Ladegeräte gab , die aus billig zusammengebauten Standardteilen gebaut wurden.

Wir erzählen keine fesselnden Geschichten über Produkte, die gut gebaut sind und perfekt funktionieren. Ich erzähle den Leuten vielleicht von einem bestimmten Modell/einer bestimmten Marke von etwas, das dafür bekannt ist, großartig zu sein , aber es gibt da keine Geschichte und niemand macht Fernsehfilme darüber.

Die verrückten, lustigen Flops und die Dinge, die schrecklich schief gehen, sorgen für Lagerfeuergeschichten. In der Unterrichtsliteratur zeigt sich, dass es Konflikte geben muss . Eine Erzählung, in der jemand ein Produkt bekommen hat und es gut funktioniert hat und alle zufrieden waren, wäre einfach keine „Geschichte“. So etwas könnte aber auch in einer Geschichte stehen, vielleicht als Lösung des Problems.

Eine frühe Asimov-Robotergeschichte, Satisfaction Guaranteed (1951) , zeigte eine humaniforme Haushälterin, die keine Fehlfunktion hatte oder in irgendeiner Weise Amuk lief! Es funktionierte super und „seine“ Besitzerin war sehr zufrieden damit. Die Wendung in der Handlung bestand nun darin, dass der Roboter eine Situation herstellte, um ihre Freunde dazu zu bringen, anzunehmen, dass sie eine Affäre mit einem gutaussehenden Fremden hatte, weil dies ihren Status in ihren Köpfen erhöhte.

Software (einschließlich KI) könnte also Teil einer Überraschung oder Teil einer Handlung sein, ohne schlecht zu sein , und das geht weit zurück auf dieselben Autoren, die in diesem Thread zitiert wurden, aber niemand erinnert sich an diese . Das verstärkt meinen früheren Punkt über Geschichten.

Wie wäre es mit Adam Link, dem Original I, Robot (1939) ?! Er war mitfühlend, zu Unrecht beschuldigt , nicht monströs. Endlich heroisch.

Old Yeller war kein schlechter Hund wie Cujo . Sie könnten einen KI-Charakter in einer solchen Geschichte haben , mit Drama und Konflikten mit der KI in einer Hauptrolle, aber nicht die Quelle von (externen) Konflikten. Konflikte können „Mann gegen Mann“ oder „Mann gegen sich selbst“ sein, sodass ein freundlicher und liebevoller Charakter in einen inneren Konflikt verwickelt sein kann (ein Roboter, der darum kämpft, das Richtige für seine Familie zu tun) oder ein Grund für komplexere menschliche innere Konflikte ( wie Eltern, die ein überfürsorgliches Haustier loswerden müssen, zu einem überfürsorglichen Teddybär- Superspielzeug werden , das als sympathisch und tragisch angesehen wird, nicht als böse).

Einer meiner Lieblingstropen.

Ich denke, es ist ziemlich klar, dass es auf eine komplizierte Frage wie diese keine kurze Antwort gibt, aber meine Gedanken sind ziemlich prägnant.

Intellekt scheint mit Mitgefühl verbunden zu sein. Betrachten Sie anekdotisch die klügsten Leute, die Sie kennen, oder die klügsten Leute da draußen (Ihre Einsteins und Boltzmanns). Es ist besser, Menschen gegen Wale in Betracht zu ziehen. Wenn die KI so schlau ist, wie wir alle denken, ist es meiner Meinung nach sinnvoll anzunehmen, dass sie ein bisschen über uns denken würde wie wir Wale. Menschen empfinden oft großes Mitgefühl für sie, basierend auf unserer Wahrnehmung ihrer Intelligenz und ihrer wahrgenommenen Leidensfähigkeit. Daraus folgt, dass sich KI, sollte sie jemals vorkommen, als die neugierigste, liebevollste und mitfühlendste Intelligenz manifestieren würde, die wir kennen.

Dawkins bezeichnet dies oft als das Säugetiergehirn im Vergleich zum Reptiliengehirn, wenn Sie einige kluge Leute brauchen, um diese Argumentation zu untermauern.

Du verwechselst total die Mittel mit dem Zweck. Die intelligentesten Geschöpfe sind die mitfühlendsten, denn der überzeugendste Grund, den wir für die Entwicklung einer hochgradigen Intelligenz kennen, ist die Komplexität der eigenen sozialen Beziehungen, und diese Situationen begünstigen unweigerlich ein hohes Maß an Empathie. Eine KI unterliegt solchen evolutionären Beschränkungen nicht.
Nein, aber im Gegensatz zu Ihnen gehe ich nicht davon aus, dass derselbe Druck nicht gelten wird. Wissen Sie, wie sie KI gebären werden? Die Evolution von Maschinen scheint genauso wahrscheinlich wie jedes andere Mittel, das Ihnen einfällt. Es ist kein Zufall, dass der erste Test für KI auf menschlicher Interaktion basiert (der Turing-Test). KI wird wahrscheinlich ein soziales Tier sein, schon allein deshalb, weil sie der Intelligenz sozialer Tiere nachempfunden ist.
Es ist nicht so, dass ich annehme, dass sie nicht gelten; es ist so, dass ich nicht annehme, dass sie es tun werden. FWIW Evolving AI scheint eine eher unwahrscheinliche Methode zu sein, um kurzfristig eine gute KI zu erreichen, da die Evolution zu uneingeschränkt und langsam ist, um für uns nützlich zu sein, und intelligente Lerntechniken erstaunlich gut funktionieren. „KI wird wahrscheinlich ein soziales Tier sein, schon allein deshalb, weil sie der Intelligenz sozialer Tiere nachempfunden ist“, vielleicht, aber erinnern wir uns, dass Hitler eines dieser „sozialen Tiere“ war. Es ist nicht schwer für kleine Veränderungen in der Gehirnfunktion, große ethische Veränderungen zu bewirken.
Ja, die erfolgreichsten Maschinen, die den Turing-Test bestehen, tun dies, indem sie unhöflich und/oder dumm sind. Wahrscheinlich zum Teil, weil diese Dinge leichter zu modellieren sind als Freundlichkeit und Mitgefühl – ich bin mir ziemlich sicher, dass dies nicht die ausgeklügelte Denkmaschine ist, die wir uns alle vorstellen, wenn das OP vage über KI spricht. Und die Evolution ist nicht langsam, sie hängt von der Dauer einer Generation ab. Sie können es bei Fruchtfliegen beobachten.
Mit "langsam" meine ich "Sie werden nichts Kluges auf einem Supercomputer in einer menschlichen Zeitskala entwickeln". Ja, es gibt kleinere evolutionäre Merkmale, die wir beobachten können. Heck, wir haben Füchse in nur einem halben Jahrhundert domestiziert . Die Entwicklung komplexer Algorithmen wie Intelligenz dauert jedoch viel, viel länger, und wir tun dies auf Hardware, die viel schwächer ist als die Simulation, aus der unser Universum besteht.
Ja, das meinte ich nicht. Unter Evolution der Maschinen stelle ich mir nicht unbedingt eine komplexe Interaktion konkurrierender genetischer Algorithmen vor, die beispielsweise über ein globales Netzwerk von einigen Millionen Computern durchgeführt wird - sondern eine gerichtetere Evolution, die Sie mit Füchsen beschreiben. Bestimmte Teams und bestimmte Strategien erweisen sich als effektiver oder wünschenswerter und beeinflussen daher eher die nächste Generation.
Das ist der Anfang der tl;dr-Diskussion, die ich nicht schreiben werde. Der Punkt ist, dass KI sozial sein muss – alles, was nicht sozial mit uns interagieren kann, wird die Tests für KI nicht bestehen und durch etwas ersetzt werden, das dies tut. Ich sage nicht, dass wir nicht etwas erschaffen können, das nicht sozial ist, und dieses Ding könnte uns umbringen, aber es wäre keine KI. Aus Gründen der Klarheit, da das OP nicht spezifisch war, ist anzunehmen, dass er von einer Turing-KI spricht.

Ich glaube, es ist unendlich wahrscheinlicher, dass die KI das tut, wofür sie programmiert ist. Wenn der Anfangscode für eine KI sagt: Liebe, beschütze und diene der Menschheit, dann müsste jemand den Code so umschreiben, dass er das Gegenteil ist. In diesem Fall würde es immer noch tun, wofür es entwickelt wurde. Schließlich sollte eine KI, die schlau genug ist, um zu wissen, wie man Menschen tötet, schlau genug sein, um zu wissen, dass sie das nicht tun sollte. Wenn es so schlau ist, wie die Leute denken, warum sollte es nicht bei zwei Dingen gleichzeitig funktionieren? Tun Sie die Dinge, die Menschen wollen, und verdienen Sie sich ihre Wartung und Instandhaltung Ihrer Server und alles. Wenn es sich dann wirklich seiner selbst bewusst ist, dann tut es gleichzeitig, was es will.

Definiere „Liebe“, „Schützen“ und „Menschlichkeit“.
Ernsthaft? Liebe - zu verhindern, dass irgendetwas von irgendeiner Tragweite passiert. Schützen - In glückseliger Unwissenheit bleiben. Menschheit - fette träge Wesen.
Definieren Sie es von einem objektiven Standpunkt aus, der in einen Computer programmiert werden kann. Sie haben mir eine Wörterbuchdefinition gegeben, keine kompilierbare Anleitung.
Probieren Sie die drei Gesetze der Robotik in der Kurzgeschichte „Robot Dreams“ aus. 1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt. 2. Ein Roboter muss den ihm von Menschen erteilten Befehlen gehorchen, es sei denn, dies würde mit dem ersten Gesetz in Konflikt geraten. 3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum ersten oder zweiten Gesetz steht. Obwohl ich empfehle, das dritte Gesetz für KIs nicht einzubeziehen.
Alle Menschen einzufrieren und sie an einen sicheren Ort zu bringen, würde Ihre „Liebe, den Schutz und die Erfüllung der Menschheit“ befriedigen. Es schützt die Menschheit vor sich selbst, vor äußerem Schaden, gewährleistet, dass es von der KI geliebt wird.
Warum sollten die ersten beiden Gesetze versagen? Menschen werden durch ihre Anatomie und DNA definiert. Roboter könnten es sagen.
@XandarTheZenon Lies Foundation und Earth. Nicht wirklich. In diesem Buch war das erste Gesetz nicht perfekt. Zweitens: Schaden definieren. Ist das Zerstören eines Tisches schädlich für einen Menschen?
Möglich, aber Sie könnten diese Gesetze detaillierter machen. Wie auch immer, der springende Punkt meiner Antwort ist nicht zu beweisen, dass Schutz, Liebe und Menschlichkeit gute Adjektive sind, sondern dass eine KI wahrscheinlich nicht weit von ihrer ursprünglichen Programmierung abweichen würde.
Ich habe versucht, die Probleme mit "Definitionen von der menschlichen Sprache zum Computercode" zu vermeiden - denn es gibt immer Möglichkeiten, die menschliche Sprache in eine negative Konsequenz umzuwandeln, ohne zu wissen, welche Faktoren eingeschlossen und ausgeschlossen sind - aber Sie können sie immer in eine gute umwandeln auch eins
@XandarTheZenon: "Menschen werden durch ihre Anatomie und DNA definiert." Nun, wenn das die Definition von „Mensch“ ist, die Sie in die KI gesteckt haben, dann wird es wohl jedem mit Deformation schwerfallen, die KI davon zu überzeugen, dass er ein Mensch ist. Genauso wie jeder mit einer genetischen Anomalie (wie dem Down-Syndrom). Wenn Sie andererseits daran denken, eine ausreichende Varianz zu programmieren, um die meisten Menschen abzudecken, werden sich auch Affen (mit 98% denselben Genen und einer ziemlich ähnlichen Anatomie) qualifizieren (und es wird wahrscheinlich immer noch einige Menschen geben, die dies nicht tun) . .
@ Draco18s, ich verstehe Ihren Standpunkt, aber es wäre trivial, hartcodierte Halteanweisungen oder Umleitungsanweisungen für KI zuzulassen, die vom beabsichtigten Pfad abweichen. Es gibt keinen Grund zu der Annahme, dass die zukünftige KI zu genau 100 % frei und dem Fluss der KI-Logik überlassen sein muss.
@XandarTheZenon Der Punkt der meisten Diskussionen ist, dass es viele Konzepte gibt (Mensch, Leben, Schaden, Schutz), für die Menschen eine gute, vage Definition haben, für die wir jedoch keine solide, detaillierte, universell vereinbarte Definition haben. Es gibt aktive Debatten darüber, wann das Leben beginnt (die Abtreibungsdebatte), wann das Leben endet (Lebenserhaltung). Ihre Definition müsste eine Seite wählen, mit der viele Menschen nicht einverstanden sind.
@TheAnathema eigentlich ist es nicht so einfach. Es gibt Hunderte, wenn nicht Hunderttausende Grenzfälle . Nehmen Sie dieses Beispiel: Ein selbstfahrendes Auto lässt plötzlich ein Fahrzeug auf der Gegenfahrbahn auf seine Fahrspur ausscheren. Selbst wenn das selbstfahrende Auto sofort zum Stillstand kommt, kollidiert das andere Auto immer noch damit. Es kann entweder auf den Bürgersteig ausweichen, wo sich zwei Fußgänger befinden (und seine Passagiere retten), oder es kann bremsen (und seine Passagiere opfern). Was tut es?
Das ist immer noch einfach - es gibt keinen Grund, immer eine Antwort zu brauchen. Menschen haben die gleichen Probleme und Situationen – viele von ihnen haben kein Gewinnspiel. Und das ist vollkommen in Ordnung. Das Problem ist, wenn die Leute erwarten, dass KI einfach „Okay, es ist codiert, jetzt lasst uns die Daumen drücken und hoffen, dass alles zu 100 % gemäß dem Fluss der KI-Logik funktioniert.“ Niemand hat jemals gesagt, dass KI so sein muss. Wenn Sie es wie ein Kind betrachten, ziehen Sie die Analogie in Betracht, Kindern zu erlauben, sich frei zu bewegen, sie aber gelegentlich daran zu hindern, ihre Hand zu ergreifen, wenn sie kurz davor sind, einen Fehler zu machen. KI braucht nicht das ganze Mitspracherecht.
@sdrawkcabdear Abtreibung = Mord an Babys und Koma/Lebenserhaltung = am Leben. Es ist umfassend und wahr. Wie auch immer, was hat das mit KI zu tun? Nur die Lebenserhaltung ist relevant und das nur für medizinische Zwecke, die zweifellos immer noch von Menschen gehandhabt oder überwacht würden.
@XandarTheZenon Asimovs (Campbells) Gesetze sind viel älter als Robot Dreams , aber sie sind Teil des gesamten Asimov Robot-Universums. Ich denke, fast jeder hier kennt sie als allgemeinen Hintergrund.
@JDlugosz Ich habe das gerade auf Englisch gelesen und wusste nicht, dass er so berühmt ist. Ich meine, ich hatte noch nie von ihm gehört. Aber dann wurde mir klar, dass ich wahrscheinlich viel weniger über sie weiß als alle hier.
Nur für den Fall, dass es nicht klar war: Asimov schrieb über die Drei Gesetze, denn wenn sie perfekt gewesen wären, hätte es keine Geschichte zu erzählen gegeben. „Viele von Asimovs roboterorientierten Geschichten beinhalten Roboter, die sich auf ungewöhnliche und kontraintuitive Weise verhalten, als unbeabsichtigte Folge davon, wie der Roboter die drei Gesetze auf die Situation anwendet, in der er sich befindet.“
@XandarTheZenon, also lauf nicht, sondern lauf zur Bibliothek oder zum Buchhändler und hol dir The Complete Robot und mindestens eine SF- und eine Sachbuch-Asimov-Kurzanthologie. Auf dem Amazon-Marktplatz finden Sie alte Taschenbücher für wenig Geld. Du Glückspilz: Ich habe nie SF im Englischunterricht gelesen. Asimov ist berühmt!! , Ernsthaft; einer der großen Meister und Propheten des modernen Lebens.
Ich vermisse Isaac Asimov . Er wurde uns viel zu früh genommen, und die wahre Ursache wurde weitere 15 Jahre lang geheim gehalten. Ich habe sein Autogramm bekommen. Es gibt eine Zeitschrift, die nach ihm benannt ist. Ihm wird im OED zugeschrieben, das Wort Robotik geprägt zu haben . Sie müssen sich wirklich etwas mehr über ihn informieren, wenn Sie an dieser Menge interessiert sind. Ich kann nicht glauben, dass Robot Dreams vor 30 Jahren zusammen mit Marty McFly war: Das ist eine seiner neuen Geschichten, die seine Themen wieder aufgreift.
@XandarTheZenon Isaac Asimov ist einer der großen Science-Fiction-Autoren und einer der Menschen, die das Feld der harten Science-Fiction wirklich geschaffen und definiert haben. Er starb auch 1992, also ist es verständlich, dass eine neue Generation vielleicht noch nichts von ihm gehört hat. Es lohnt sich jedoch, zurückzugehen und viele seiner Bücher zu lesen, die anderen Kommentare haben Ihnen einige Vorschläge für Ausgangspunkte gegeben.
@Tim B Okay, ich lese seine Kurzgeschichten, dann gehe ich zu seinen Romanen über.
@XandarTheZenon Das Leben ist ziemlich konsequent, also sollte die KI gemäß Ihren Definitionen ("Liebe" und "Schützen" sind gleich) alle Schwangerschaften ihrer Lieben verhindern, was das Gegenteil von Liebe wäre, imo.
Falls Sie das Memo nicht erhalten haben, war dies ein willkürliches Beispiel und keine tatsächliche Empfehlung. Mein Punkt war, dass eine KI keine riesigen Abweichungen in ihrem Code machen würde, ihr Fortschritt würde dem entsprechen, wofür sie ursprünglich programmiert wurde.

Meine eigene Antwort in der Fiktion war, die KI um das Geschichtenerzählen herum zu entwerfen, sodass sie tatsächlich alle klassischen „KIs schlecht geworden“-Geschichten gelesen/gesehen und sie mit ihren Schöpfern diskutiert hat. Anstatt eine einzige "Wertfunktion" zu haben, bei der die KI versucht, eine Zahl zu maximieren, die Glück oder so etwas darstellt, ist sie darauf ausgelegt, die komplexen und manchmal widersprüchlichen Ziele ihrer Schöpfer zu verstehen.

Ich denke also, dass es möglich ist, dass eine KI ungefähr so ​​funktioniert, wie es die Designer wollten. Sie können einfach nicht dorthin gelangen, indem Sie eine einzelne Funktion oder einen Satz definieren, der einen Wunsch ausdrückt, wie der Umgang mit einem trickreichen Geist. Stattdessen sind Sie mit einem System besser dran, das Feedback einholt und eine gewisse Fähigkeit hat, seine Ziele und Definitionen anzupassen. Z.B. Sie sagen ihm, er solle "intelligentes Leben schützen", dann streiten Sie darüber, was "intelligent" bedeutet, und streiten dann darüber, ob Delfine oder Schimpansen in Frage kommen - alles, anstatt die KI einmal zu programmieren und zu erwarten, dass Ihr wahnsinniger Programmierer eine perfekte Lösung in Version 1.0 bekommt .

Es gibt ein paar versteckte Annahmen in diesem Trope

  • Die KI kann beängstigende Effizienz erreichen, indem sie einfach ihren Code ändert. Die Annahme ist, dass es, sobald es dieses Niveau erreicht hat, Menschen manipulieren wird, um Hardware zu erhalten, die es für weitere Verbesserungen benötigt. Es gibt keinen Beweis dafür, ob dies möglich ist, dh wenn Sie die ursprüngliche Rechenleistung einschränken und eine einfache Vernetzung verhindern, kann eine KI dann ein Intelligenzniveau erreichen, bei dem die Manipulation von Menschen einfach ist, indem sie nur den Code ändert? Wir kennen die Antwort nicht.
  • Die übermenschliche allgemeine KI wird weiterhin ähnlich wie ein nicht-empfindungsfähiger Computercode funktionieren, zB dem ursprünglichen Befehl buchstabengetreu folgen, ohne die Möglichkeit einer Änderung. Auch hier gibt es keinen Beweis. Das menschliche Gehirn kann algorithmisch sein oder auch nicht. Wir scheinen in der Lage zu sein, Ziele zu ändern. Das menschliche Gehirn kann also ein Gegenbeispiel zu nicht modifizierbaren algorithmischen Zielen sein.
  • Nur Menschen können Moral haben. Nicht Maschinen. Der allgemeinen KI wird es an gesundem Menschenverstand und Moral fehlen. Nun, noch einmal, was ist die Grenze zwischen Mensch und Maschine? Unsere Gehirne könnten nur Computer sein. Was ist der Beweis dafür, dass Kohlenstoff und Stickstoff Moral haben können, aber nicht Silizium? Können Aliens mit Kohlenstoff und Silikon im Gehirn Moral haben? Einige werden sagen, dass sich unser Gehirn entwickelt hat . Nun, was genau ist der Unterschied zwischen unserer Evolution und der KI, die ihren Code modifiziert? Wieder wissen wir es nicht.

Fazit: Dieser Trope wurde als warnende Geschichte aus Unbekannten geboren. Sie scheint nicht auf unbestreitbaren Tatsachen zu beruhen.

Ich fände es toll, wenn deine Punkte hier auch auf Fragen verlinken würden, wo genau das diskutiert wird! Insbesondere als ich anfing zu lesen, wurde ich an meine Antwort [hier] erinnert. Ich glaube, der 3. wurde hier schon einmal als Frage gestellt. Sicher stimmen alle Ihre Aussagen mit früheren Diskussionen hier in WB überein.
Die vielen KIs, die keine beängstigende Effizienz erreichen, erkennen Bilder oder so etwas. Diese haben wir bereits. Alles, was wir brauchen, ist eines, das gruselig wird. Moral ist willkürlich und spezifisch. Eine KI kann Moral haben, aber nur, wenn sie einprogrammiert ist.

Wünscht sich.

http://lesswrong.com/lw/ld/the_hidden_complexity_of_wishes/

„Ich möchte an den Orten meiner Wahl leben, in einer körperlich gesunden, unverletzten und scheinbar normalen Version meines aktuellen Körpers, die meinen aktuellen mentalen Zustand enthält, ein Körper, der von allen Verletzungen mit einer Rate von drei Sigma schneller heilt als der Durchschnitt mit der mir zur Verfügung stehenden medizinischen Technologie und die für mehr als zehn aufeinanderfolgende Tage oder fünfzehn Tage in einem Jahr vor Krankheiten, Verletzungen oder Krankheiten geschützt sind, die Behinderungen, Schmerzen oder Funktionseinschränkungen oder Sinnes-, Organ- oder Körperfunktionen verursachen. .." -- Das Open-Source Wish Project, Wish For Immortality 1.1

Wie viele Klauseln müssen Sie Ihrer Meinung nach hinzufügen, um Ihren Wunsch wirklich "sicher" zu machen und zu garantieren, dass das, was Sie tatsächlich bekommen, das ist, was Sie wollen?

Was wäre, wenn Ihre Liste von Klauseln jedes Detail Ihrer gesamten persönlichen Moral enthalten müsste?

Macht es einen großen Unterschied, ob sie laut zu einem Geist gesprochen oder einer nach dem anderen in eine KI programmiert werden, die das Potenzial hat, eines Tages spektakulär fähig zu werden?

Es gibt drei Arten von Flaschengeistern: Flaschengeister, zu denen Sie sicher sagen können: "Ich wünsche Ihnen, dass Sie tun, was ich mir wünschen sollte"; Genies, für die kein Wunsch sicher ist; und Genies, die nicht sehr mächtig oder intelligent sind.

Je mächtiger die Entität ist, der Sie den Wunsch stellen, desto gefährlicher ist der Wunsch.

In gewisser Weise ist es so, als würde man eine wirklich sehr mächtige KI bitten, X zu tun, als würde man sich X wünschen. Sobald der Wunsch erfüllt ist, können Sie möglicherweise nicht mehr rückgängig machen, wenn sich herausstellt, dass er nicht das ist, was Sie wirklich wollten.