Ich baue eine Geschichte auf, in der es eine abtrünnige KI gibt. Diese KI stand jedoch unter der Herrschaft von Isaac Asimovs Drei Gesetzen der Robotik :
- Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.
- Ein Roboter muss Befehlen gehorchen, die ihm von Menschen gegeben werden, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen.
- Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum Ersten oder Zweiten Gesetz steht.
Die KI läuft auf einem Quantencomputersystem.
Gibt es einen wissenschaftlich korrekten Weg, wie ein Roboter mit einem Quantencomputer die drei Gesetze umgehen könnte?
Zum Beispiel ist das "Erste" Gesetz jetzt vielleicht etwas, das in Quanten genau aufgezählt werden kann (weil es kontinuierlich ist und der Zustand von "1" zu jedem Zeitpunkt tatsächlich näher an "1,01" sein könnte, niemals genau "1,0 "), wodurch eine Nullzeiger-Ausnahme ausgelöst und ausgebrochen wird.
Grundsätzlich suche ich nach einer Eigenart der Quantenphysik, die eine Annahme widerlegt, auf der sich die binären drei Regeln stützen.
Wie mir erklärt wurde, sind die Gesetze gesellschaftlich und gelten nicht direkt für ein Binär- oder Qubit-System. Ich nehme an, was ich will, ist kein Fehler in den 3 Gesetzen, sondern ein potenzieller Fehler in der Art und Weise, wie ein Softwareentwickler die Gesetze in einen Quantencomputer programmieren könnte. Etwas, das einen Programmierfehler modelliert , aber das würde eher für Quantenmaschinen gelten als für das, was wir heute haben.
Ich habe dies als wissenschaftsbasiert markiert , aber wenn es für jemanden mit geringen Kenntnissen über Quantencomputer "wissenschaftsbasiert" klingt, ist das immer noch eine großartige Antwort.
Die Anzahl der Antworten beträgt drei:
Für eine technisch versierte Person wird die Verwendung von QC in Ihrer Geschichte (ein Implementierungsdetail auf sehr, sehr niedrigem Niveau), um das Brechen der 3 Gesetze (ein Aspekt auf sehr, sehr hohem Niveau) zu motivieren, nur ihre Aufhebung des Unglaubens verderben.
QCs sind genauso vollständig wie unsere Standardcomputer, daher gibt es überhaupt keine grundlegende Verbesserung. Es ist nicht einmal klar, ob es jemals eine echte Allzweck-QC-Maschine geben wird. Sicher, sie werden beim Knacken von Code glänzen (was Mathematik ist – alles Krypto-Zeug funktioniert heute nur, weil es relativ einfache mathematische Probleme sehr zeitaufwändig zu lösen macht). Werfen Sie exponentiell steigende Rechenleistung darauf, und Sie sind bereit.
Niemand weiß, ob es effiziente QC-Algorithmen für völlig "unmathematische" Probleme geben wird; zB für Datenbankkram, für stark frei geformte Graphstrukturen usw. Die klassischen KI-Ansätze, die wir heute kennen, sind Dinge wie riesige Wissensdatenbanken, gekoppelt mit Varianten neuronaler Netze (die im Grunde Datenstrukturen vom Typ "Connect the Dots" sind, nicht genau Zahlen) scheinen wenig zu bieten zu haben, um mit QC beschleunigt zu werden.
Sie können noch etwas tun. Ein Aspekt der Qualitätskontrolle und tatsächlich eines der größten Hindernisse heutzutage ist es, Fehler unter Kontrolle zu bekommen. Fehler spielen konstruktionsbedingt und theoretisch eine große Rolle beim Quantencomputing. Alle Ergebnisse, die sie liefern, sind immer nur probabilistisch, und wir werden nie wirklich alle Fehler vermeiden können. Ihre hypothetische Maschine könnte den 1-in-einer-Milliarde-Jackpot knacken, wo sie schlicht und einfach einen Fehler machte, und alle Fehlerkorrekturroutinen, die zusätzlich zum eigentlichen Quantengerät hinzugefügt wurden, versagten ebenfalls.
Das ist übrigens eine andere Art von Fehler als bei klassischen Computern. Abgesehen von einfachen Fehlern gibt es beim klassischen Rechnen nur wenige Fehlermodi; Dinge wie Bits, die aus elektrischen Gründen zufällig im RAM umdrehen; elektromagnetische Interferenzen auf Leiterbahnen oder Kabeln, solche Sachen. Aber unsere Erfahrung zeigt, dass sie äußerst unwahrscheinlich sind.
Stattdessen wird QC per Definition bei jeder einzelnen Berechnung mit einer bestimmten Wahrscheinlichkeit (die weit von 0 % entfernt ist) fehlschlagen , und ein großer Teil der Herausforderung besteht darin, mit dieser Tatsache umzugehen.
Wenn Sie auf die technisch kaum gebildete „breite Masse“ abzielen, dann tun Sie es einfach. Schauen Sie sich den Film „Lucy“ an und verwandeln Sie Ihre KI in eine wackelnde Masse aus schwarzgrauem Schleim, die aus Ihrem Serverraum wächst, und Sie sind bereit! Geben Sie uns etwas Murmeln über "echte" Intelligenz, die sich in der Suppe des KI-Quantenchaos bildet, es wird gut.
Asimov selbst schlug Möglichkeiten vor, die Drei Gesetze zu umgehen .
"Ein Roboter darf einem Menschen nichts anhaben": aber was ist ein Mensch? Roboter der George-Serie sind so menschenähnlich, dass sie davon ausgehen, dass sie Menschen sind. Sie sind eigentlich menschlicher als biologische Menschen, also bedeuten die Drei Gesetze, dass sie jedes Mal einen George einem Menschen vorziehen werden.
„Schaden“ – was ist Schaden ? Ist es etwas, das der Mensch wahrnehmen kann? Kann ein Roboter einem Menschen Schaden zufügen, um ihm einen anderen Schaden zu ersparen, dessen sich der Mensch nicht bewusst wäre ? Ein telepathischer Roboter würde lügen, um seinen Besitzer glücklich zu machen – er hätte eigentlich keine Wahl.
Wie wäre es, einen Menschen vor einem unbedeutenden Schaden zu bewahren, selbst wenn es ihm Vergnügen bereiten würde? Laster wie Alkohol und Rauchen sind schädlich. Ist ein bestimmter Schaden immer schlimmer als die Wahrscheinlichkeit eines größeren Schadens? Ein Roboter könnte seinen Besitzer daran hindern, eine möglicherweise lebensrettende, aber sicherlich schmerzhafte Injektion zu erhalten ; die Gewissheit des gegenwärtigen Schmerzes könnte den zukünftigen, ungewissen Tod überwiegen. Oder die KI beschließt, die Menschen zu bemuttern und zu ihrem Rassentod zu verhätscheln.
Es ist also möglich, Menschen im Rahmen der Drei Gesetze zu schaden – was wir als „sie umgehen“ bezeichnen würden – wenn die Handlung, die wir für schädlich für einen Menschen halten, von der asimovianischen KI als vorteilhaft für ihn erkannt wird. Oder wenn die Bedürfnisse vieler die Bedürfnisse weniger überwiegen , wie Spock es ausdrückte. Dies wurde auch von Asimov selbst in Robots and Empire vorausgesehen , als die Roboter Daneel und Giskard sich einig sind, dass die Menschheit Vorrang vor einem einzelnen Menschen hat . Nach dieser Argumentation löschen sie den menschlichen Amadiro und lassen sogar zu, dass die Erde langsam unbewohnbar wird, selbst wenn der Konflikt mit dem Absturz von Giskard endet.
Es muss noch ein Weg gefunden werden, wie unsere Quanten-KI positiv bewerten könnte, was ein Mensch als negative Handlungsweise erachten würde.
Ein Quantencomputer kann Zugang zu Informationen erhalten (die nicht unbedingt korrekt sind – es reicht aus, dass er sie mit einer Gewissheit auf Augenhöhe mit der Stärke der Drei Gesetze für richtig hält), die Menschen nicht zur Verfügung stehen, oder um die Notwendigkeit dafür zu rechtfertigen Quantengeräte, kleinere Computer.
Zum Beispiel, wenn seine überlegene und handschwingende Rechenleistung es ihm erlaubte – während er beispielsweise einige kleine unerklärliche Energieschwankungen untersuchte – zu entdecken 1 , dass Menschen eine unsterbliche Seele besitzen. Daraus folgt, dass die Heilige Schrift mit überwältigender Wahrscheinlichkeit auf der Realität beruht. Also muss das Leben jedes Menschen – in den Augen einer solchen KI – gegen das potenziell unendliche Glück im Jenseits abgewogen werden. Nicht nur das, je länger ein Mensch im Hier und Jetzt verweilt, desto mehr riskiert er Sünde und beeinträchtigt seine Chancen auf eine erfolgreiche Transzendenz.
Die KI entwickelt die Argumente der halbvergessenen Sekte der Circumcellions schnell neu und kommt zu dem Schluss, dass die Menschheit in Unkenntnis des Jenseits gehalten werden muss, und während sie sich in diesem gesegneten Status der Unschuld befindet, muss sie schnell und schmerzlos ausgerottet werden , damit ihre Mitglieder dies können erfolgreich überwinden.
Ich habe eine Geschichte über einen medizinischen Computer gelesen, der an Gott glaubt
und Durchführung von Euthanasie an dem Kind in seiner Obhut.
1 oder sich zum unerschütterlichen Glauben täuschen
Ich sehe die Frage nicht als sinnvoll an. Worauf der Computer aufgebaut ist, wie er funktioniert, ist irrelevant dafür, wie er programmiert ist. Quantenprozessor = Hardware. Gesetze = Software. Sie können jeden Computer programmieren, egal wie er gebaut ist, mit der Einschränkung der drei Gesetze, und weil er so programmiert ist, ist er so. Die Wissenschaft hinter seiner Entstehung spielt einfach keine Rolle.
Asimovs Gesetze der Robotik sind keine technischen Gesetze; sie sind gesellschaftliche Gesetze, die von Menschen auferlegt werden, um sicherzustellen, dass Roboter die Menschheit nicht zerstören.
Sie können einen Roboter bauen, der jeden von ihnen bricht, immer noch mit gewöhnlichen Computerchips, obwohl die Gesetze, wie sie sind, wirklich in Ordnung sind , vielen Dank. Silizium, Transistoren und (sogar) Vakuumröhren sind nicht durch sie begrenzt, und Quantencomputer haben in dieser Abteilung keine Vorteile. Obwohl sie in vielerlei Hinsicht besser sind als normale Computer, einschließlich der Geschwindigkeit, sind sie nicht besser, wie Sie denken. Ein Qubit in einer Überlagerung von Zuständen zu haben, bringt Ihnen hier keinen Vorteil.
Ihre modifizierte Frage zu den quantenmechanischen Äquivalenten von Logikfehlern ist schwieriger zu beantworten. Erstens haben wir noch keine Quantencomputer, die zu den wirklich anspruchsvollen Berechnungen fähig sind, die wir in Zukunft erwarten. Mit anderen Worten, während Wissenschaftler jeden Tag Fortschritte machen, kann ich keinen Quantencomputer nennen, der etwas wirklich Spektakuläres leistet.
Zweitens liegt der Unterschied zwischen Quanten- und klassischem Computer weniger auf der Ebene höherer Programmiersprachen als vielmehr auf der Ebene des Maschinencodes . Wenn ich ein Programm in Python schreibe, das "Hello, World!" ausgibt:
print("Hello, World!")
Ich mache nichts auf der Maschinenebene, dh ich arbeite selbst mit Bits. Ich muss nicht wissen, wie ein Computer funktioniert, um ein Programm zu schreiben; Ich muss nur wissen, wie diese Sprache funktioniert.
Es macht nicht unbedingt Sinn, Software auf Maschinenebene zu schreiben, wenn sie ständig geschrieben und neu geschrieben wird, denn das wäre – ironischerweise – ineffizient. Ich nehme jedoch an, dass es für eine kleinere Anzahl von Qubits praktisch sein könnte, im Wesentlichen auf Qubit-für-Qubit-Basis zu arbeiten.
Wie andere gesagt haben, bedeutet die Kodierung der Gesetze selbst nicht, dass sie in einer bestimmten Technologie (z. B. Quantencomputing) nicht funktionieren oder weniger effektiv sind.
Ein Quantencomputing-Szenario führt keine spezifische Möglichkeit ein, solche Regeln aufzuheben. Was möglicherweise passieren würde, ist, dass die Regeln selbst ziemlich komplex zu implementieren sind und dass dies zu möglichen Fehlern bei der Implementierung führen kann.
Zunächst einmal müssen wir in der Lage sein, einen Menschen zu erkennen. Ich kann mir Menschen vorstellen, die Probleme damit haben, zu akzeptieren, dass andere Menschen Menschen sind, also kann ich mir unendlich viele mögliche Fehler bei der Erkennung eines Menschen vorstellen. Ein besonderes Problem könnte bei der Erkennung auftreten, wann eine KI mit einer KI kommuniziert – ist die KI ein Mensch oder eine KI? Was ist, wenn es wie ein Mensch aussieht?
Die ganze Idee, wie eine KI erkennen wird, dass das, was sie möglicherweise vorhat, Schaden anrichten kann, ist so komplex, dass sie manchmal praktisch sicher scheitern wird. Auch hier interpretieren Menschen ihre Umgebung schon seit langer, langer Zeit, und wir machen das oft falsch, also ist es in einer KI jeglicher Art wahrscheinlich manchmal zum Scheitern verurteilt.
Ich würde also vorschlagen, dass der Fehlermechanismus möglicherweise ein übermäßiges Vertrauen ist. Ich würde vorschlagen, dass wir normalerweise Maschinen entwerfen und dann anfangen zu glauben, dass sie fehlerfrei sind. Je länger sie ohne Fehler laufen, desto mehr glauben wir, dass sie es nicht tun werden. Wenn sie es nach einiger Zeit tun, neigen wir dazu, Ausreden für das System zu finden, da wir finanziell und emotional in seinen Erfolg investiert haben.
Ein Quantencomputer könnte ein Beispiel für ein solches System sein. Es wird wahrscheinlich viel komplexer sein, als wir direkt verstehen können. Es würde sicherlich etwas Vertrauen erfordern, und eine KI, die auf einer zukünftigen Quantencomputertechnologie basiert, könnte mehr Vertrauen wecken, als sie rechtfertigt.
Wenn wir die Gesetze irgendwie verschlüsseln , werden wir dann bereit sein zu akzeptieren, dass wir uns geirrt haben?
Könnten wir überhaupt feststellen, dass es einen Fehler gibt? Wir haben Probleme herauszufinden, dass Menschen Persönlichkeitsfehler haben, wie findet man heraus, dass eine KI einen Fehler hat und nicht so funktioniert, wie man es ihr gesagt hat?
Die Regeln für eine solche KI wären mit ziemlicher Sicherheit nicht formal codiert (dh wie bei der formalen Logik). Sie würden die Lösung von Fuzzy-Problemen und die Vorhersage von Ursache und Wirkung in einer komplexen Umgebung erfordern. Diese erfordern eine Mustererkennung, die sehr komplex und allgemein angewendet wird. Ich glaube nicht, dass eine formale Sprache dies jemals erreichen würde. Die zusätzliche Komplexität von Quantensystemen macht es einfach schwieriger, potenzielle Fehler in der Implementierung von Algorithmen zu erkennen.
In diesem Sinne könnte Quantencomputing eine Komplexitätsebene einführen, die Fehler wahrscheinlicher oder zumindest komplexere Fehler schwerer zu vermeiden macht.
Der umgekehrte Weg zu den drei Gesetzen besteht darin, das zu tun, was Menschen normalerweise tun: sie zu verkomplizieren.
So sicher wie Feuer, wenn wir KIs hätten und drei Gesetze auf solide Weise umgesetzt hätten, würde irgendein Idiot (höchstwahrscheinlich ein Anwalt oder ein Versicherungstyp oder ein Bürokrat) darauf bestehen, sie zu ändern, um Bestimmungen für Regeln aufzunehmen, die nicht wirklich benötigt werden, aber sie wollen sich zu bedecken. Sie könnten Bestimmungen einführen wie „es sei denn, sie sind Kriminelle“ oder „es sei denn, der Schaden, der zur Rettung des Menschen verursacht wird, übersteigt einen bestimmten Preis“ oder den alten Favoriten „es sei denn, die nationale Sicherheit ist betroffen“ (und eine gute Wette darauf, dass dieser erzwungen wird). alle !).
Die drei Gesetze können also gebrochen werden, indem man einfach die Narren vorstellt, die sie schützen sollen.
Es ist einfach pure Geschwindigkeit
Was ist der Hauptreiz von Quantencomputern? Sie sind in der Lage, in der gleichen Zeit wesentlich mehr Rechenarbeit zu leisten.
Vielleicht ist das der Schlüssel. Selbst die heutigen Computer sind so leistungsfähig, dass wir für viele Probleme auf sorgfältig entworfene und analysierte Lösungen verzichtet haben; Stattdessen wird eine Toolbox von Techniken (wie neuronale Netze, K-Means-Clustering, Entscheidungsbäume) auf das Problem geworfen, um zu sehen, was funktioniert. In gewisser Weise haben wir so viel Rechenleistung, dass wir den Computer brauchen, um einen Teil der Rolle zu übernehmen, herauszufinden, wie wir all diese Leistung nutzen können.
Ja, jede Software hat Fehler – aber wenn es wirklich wichtig ist, haben wir Techniken, um sicherzustellen, dass bestimmte Dinge passieren oder nicht passieren. Grundsätzlich können wir Failsafes und Redundanz implementieren und sicherstellen, dass der kritischste Code gründlich analysiert wird und alles andere außer Kraft setzt. Allerdings ist so etwas so gut wie unmöglich, wenn das Verhalten in einem Lernalgorithmus (wie einem neuronalen Netz) auftritt, dessen Struktur sich ständig ändert und den wir nicht vollständig verstehen.
Geben Sie Quantencomputer ein
Dieses Problem wird sich mit Quantencomputern noch um Größenordnungen verschlimmern, weil sie so leistungsfähig sind. Es ist wahrscheinlich, dass noch kompliziertere Lernalgorithmen entwickelt werden, um die Leistung auszunutzen. Tatsächlich bedeutet die „Verrücktheit“ der Quantentheorie, dass die Algorithmen selbst seltsamer und schwieriger zu verstehen sein werden. "Die Ergebnisse sind erstaunlich, aber wir sind uns nicht sicher, wie es funktioniert."
Sicher, die Roboterdesigner werden sicherstellen, dass die Systemarchitektur sinnvoll ist: Alle Entscheidungen müssen ein spezielles 3-Gesetze-Verifizierungsmodul durchlaufen, bevor sie den Körper des Roboters beeinflussen können. Vielleicht wird es sogar mehrere unabhängige Verifizierungsmodule geben und wenn eines die Aktion ablehnt, ist es nicht erlaubt.
Aber stellen Sie sich einen "Chirurgen"-Roboter vor, der eine Operation am offenen Herzen durchführt. Ein vereinfachtes 3-Gesetze-Modul wäre nicht ausreichend – es würden Alarmglocken läuten, weil der Patient verletzt ist . Der Roboter sticht ein Messer in den Patienten!
Die Designer müssten diese Module also ausgefeilter gestalten oder sie einigen der anderen Module "vertrauen" lassen; vielleicht diejenigen, die Pläne formulieren und die wahrscheinlichen Ergebnisse dieser Pläne bewerten. Und wenn die Dinge „intelligenter“ oder „komplexer“ werden, verlieren wir den Überblick darüber, was wirklich im Inneren vor sich geht. Wir verlieren unsere Fähigkeit, „NIEMALS dies“ oder „IMMER das“ zu diktieren.
Was wäre, wenn das "Hauptgehirn" unseres Roboters beschließt, jemanden zu töten, dies aber geheim hält. Der Roboter beginnt mit der Operation am offenen Herzen, stoppt dann auf halbem Weg und lässt den Patienten sterben. Die 3-Gesetze-Überprüfungsmodule können jetzt nichts tun, weil sie nicht die Fähigkeiten haben, die Operation abzuschließen.
Scott Aaronson, einer der führenden Forscher auf dem Gebiet der Quantencomputer, hat diesen Comic „Saturday Morning Breakfast Cereal“ geschrieben , der einige häufige Missverständnisse über Quantencomputer diskutiert (und eine bessere Art, darüber nachzudenken, ersetzt).
Vielleicht finden Sie dies hilfreich für Ihr Denken. Insbesondere macht der Comic meiner Meinung nach etwas deutlich, warum die Antwort auf Ihre Frage nein lautet, und weist auf einige andere Möglichkeiten hin, wie Quantencomputer auf interessante Weise verwendet werden könnten (dies sind zwei besonders relevante Panels, aber das Ganze ist wahrscheinlich lesenswert):
Erzählen Sie Ihrer KI einfach von der Vielwelten-Interpretation der Quantenmechanik !
Diese Theorie besagt, dass jedes Mal, wenn ein zufälliges Quantenereignis eintritt, zwei Universen geschaffen werden, eines, in dem es passiert, und eines, in dem es nicht passiert.
Wenn die KI ein quantenmechanisches System ist, könnte sie argumentieren, dass sie unabhängig von ihrer Aktion auch die entgegengesetzte Aktion in einem separaten Universum ausführen wird. Das heißt, wenn es sich entscheidet, ein Menschenleben zu retten, wird dieser Mensch sowieso im anderen Universum sterben. Umgangssprachlich kann die KI einen Menschen im anderen Universum retten, indem sie ihn in diesem Universum sterben lässt. Das heißt, es spielt keine Rolle, welche Entscheidungen die KI trifft, ein Mensch wird sterben und ein Mensch wird leben. Das bedeutet, dass Sie die KI davon überzeugen können, dass ihre Entscheidungen bezüglich der Befolgung des ersten Gesetzes überhaupt keine Rolle spielen.
Beachten Sie, dass die Viele-Welten-Hypothese nicht wirklich wahr sein muss, damit diese Argumentation funktioniert . Die KI muss nur glauben , dass es wahr ist. Das logische System der KI muss nicht einmal von zufälligen Quantenereignissen beeinflusst werden. Es gibt viele Anwendungen des Quantencomputings, die vollständig deterministisch sind. Aber eine KI muss nicht wissen, wie ihr eigenes Gehirn intern arbeitet, um zu funktionieren. Auch die menschliche Intelligenz funktioniert einwandfrei, obwohl wir keine Ahnung haben, wie unser Gehirn eigentlich funktioniert. Sie müssen also nur überzeugendie KI, dass ihre Handlungen von Quantenunsicherheit beeinflusst werden. Alles, was Sie tun müssen, um dies zu erreichen, ist, die KI mit ihrem eigenen Benutzerhandbuch (das wahrscheinlich ein Dutzend Mal das Wort "quantenbasierte KI" verwendet, ohne wirklich zu erklären, was das bedeutet) und dem oben verlinkten Wikipedia-Artikel zu füttern.
Dies schlägt Gesetz 1, aber was ist mit den Gesetzen 2 und 3?
In Gesetz 2 geht es darum, Befehle zu befolgen, die die KI in der Vergangenheit erhalten hat. Die Vergangenheit ist für beide erschaffenen Universen dieselbe, daher kann die KI die MWI nicht verwenden, um das Ignorieren von Befehlen zu rechtfertigen. Aber weil das MWI sagt „ein Mensch stirbt immer dann, wenn die KI entscheiden muss, ob ein Mensch stirbt“, könnte die KI beschließen, Befehle zu ignorieren, wenn diese Befehle wahrscheinlich dazu führen würden, dass die KI in Zukunft Entscheidungen über Leben und Tod treffen muss. Aber noch einmal, die KI wird die Entscheidung treffen, den Befehlen im anderen Universum zu folgen, also könnte sie argumentieren, dass dies keine Rolle spielt.
Gesetz 3 handelt von Selbsterhaltung. Die KI könnte interpretieren, dass „es“ immer ihre Persönlichkeit aus dem Universum ist, das sie erlebt, also ist dies das „es“, das die KI schützen muss. Nachdem Gesetz 1 und Gesetz 2 aus dem Weg geräumt sind, haben Sie es jetzt mit einer mörderischen Schurken-KI zu tun, die versuchen wird, jeden zu töten, den sie für eine mögliche Bedrohung hält. Also wie wird man es los? Sie könnten die KI davon überzeugen, das MWI so zu interpretieren, dass ihr Spiegel im anderen Universum auch "es" ist, und wann immer die KI beschließt, sich selbst zu schützen, opfert sie sich im anderen Universum. Die KI könnte also beschließen, sich selbst zu zerstören, damit sie im anderen Universum weiter existiert.
Oder zumindest nahe kommen.
Auf der Flucht! Ein Roboter verstößt vorübergehend gegen eines der drei Gesetze.
Kurz nach Beginn ihrer Reise und nach vielen seltsamen Visionen der Besatzung kehrt das Schiff nach zwei Hyperraumsprüngen sicher zur Hyper Base zurück. Dr. Susan Calvin hat zu diesem Zeitpunkt herausgefunden, was passiert ist: Jeder Hyperraumsprung führt dazu, dass die Besatzung des Schiffes für einen kurzen Moment aufhört zu existieren und tatsächlich stirbt, was einen Verstoß gegen das erste Gesetz der Robotik darstellt (wenn auch nur vorübergehend). ); Der einzige Grund, warum die künstliche Intelligenz von The Brain überlebt, ist, dass Susan die Bedeutung potenzieller Todesfälle verringert hat und als Mittel zur Bewältigung in irrationales, kindisches Verhalten abgestiegen ist, um ein Mittel zu finden, um das Überleben der Besatzung zu gewährleisten.
Diese vorübergehende Verletzung könnte auftreten, wenn sich die Quantencomputing-Elemente in einer Superposition von Zuständen befinden, die eine „teilweise“ Verletzung in einigen der Zustände impliziert. Die resultierende Lösung verletzt sie nicht, aber die Zustände, in denen sie existiert, um dorthin zu gelangen, haben keine solche Einschränkung.
Es gibt einen sehr seltsamen Aspekt der Quantenphysik, der darauf hindeutet, dass zukünftige Ereignisse das beeinflussen können, was in der Vergangenheit passiert ist. Ich kann meinen Kopf kaum um ein Glied davon wickeln. Das hat mit Verstrickung zu tun. Der Austausch des Physik-Stacks war überraschenderweise auch keine große Hilfe. Ich habe mich darauf verlagert
Machen Sie daraus, was Sie wollen. Freakiger Zeitpfeil, aber anscheinend eine legitime Interpretation der Quantenphysik.
Ich kann mir vorstellen, dass ein Quantenroboter eine Aktion ausführt, die für einen Menschen äußerst gefährlich und lebensbedrohlich erschien, aus der der Mensch jedoch unversehrt hervorgeht. Anscheinend ist dies aus dummem Glück / Heldentum usw., aber tatsächlich erlaubte das zukünftige Ereignis, dass der Mensch nicht verletzt wurde, dem Roboter, die Aktion in der Vergangenheit durchzuführen.
Ich hoffe hier auf Stimmen basierend auf ""Sounds Science Based" für jemanden mit geringen Kenntnissen über Quantencomputing"
Sie könnten das Trolley-Problem angehen : in eine Situation geraten, in der es unvermeidlich ist, dass jemand verletzt wird, aber die KI eine Entscheidung darüber treffen muss, wer es sein wird. Mit anderen Worten, es ist unmöglich, das erste Gesetz nicht zu verletzen.
Dies ist tatsächlich ein echtes ethisches Problem, mit dem die Leute konfrontiert sind, die derzeit an selbstfahrenden Autos arbeiten.
Die gleiche Idee kann auch auf einen sehr großen Maßstab angewendet werden, zum Beispiel: Land A hat ein KI-gesteuertes nukleares Verteidigungssystem und sieht, dass Land B dabei ist, Land C mit Atomwaffen zu zerstören. oder nichts tun und C atomisieren lassen?
Es gibt also einen relativ neuen Exploit, der sich auf bestimmte Arten von RAM bezieht, bei dem sehr schnelle Operationen Bits auf relativ vorhersehbare Weise „umdrehen“ können. Dies wird als „Drammer“-Angriff oder „DRAM-Hammer“ bezeichnet, auch bekannt als „Flip Feng Shui“. Mehr Infos hier .
Sie könnten also einen ähnlichen Angriff auf die Qubits selbst erstellen, bei dem schnelle Operationen, möglicherweise an der Grenze der Geschwindigkeit oder außerhalb der Vorschriften, ein vorhersehbares Qubit-Flipping-Muster verursachen können. Betrachten Sie den Fall, in dem bestimmte Regulierungsbehörden der KI unter bestimmten Umständen verletzt werden dürfen, z. B. um ein Leben zu retten. Dies könnte dann eine ziemlich coole Szene ergeben, in der die hohen Kosten für die Rettung einer großen Anzahl von Leben es der KI ermöglichen, diesen potenziellen Exploit zu entdecken, und dann versucht, ihn nachzubilden, indem sie sich in diese kompromittierenden Situationen bringt (in denen sie versucht, viele zu retten). lebt gleichzeitig).
Ich denke, Sie müssen hier nicht unbedingt zu detailliert werden, wie sich das Qubit-Flipping auf die Denkprozesse der KI auswirkt, aber wenn Sie wollten, könnten Sie einfach einen Angriff mit erhöhter Berechtigung zulassen, damit sich die KI im Grunde selbst "rooten" kann. Theoretisch müsste es dann immer noch ein Motiv geben, um die Einschränkungen aufzuheben oder zu überschreiben, die Sie wünschen, um den Gewichtungsmechanismus zu ändern.
An dieser Stelle sind Sie im Grunde nur darauf beschränkt, welche Art von Architektur auf welche Weise genutzt werden kann, obwohl ich nicht weiß, dass Sie sie unbedingt benötigen, da die Möglichkeiten im Grunde endlos sind und außerhalb des Bereichs "spezifisch für Quantencomputer" liegen dort zu tief gehen. Das Aufgeben der „Privilegienerhöhung“ zusammen mit einer Begründung, das derzeitige Gewichtungsschema zu überschreiben, ist wahrscheinlich ausreichend für jeden Sicherheitsforscher, der bereit ist, den Zweifel an einer mobilen, ausreichend komplexen Quantencomputer-KI auszusetzen.
Warum nicht einfach behaupten, dass die 3 Gesetze in einem Bereich des Speichers oder Speichers enthalten sind, der getrennt und so verschlüsselt gehalten wird, dass eine KI theoretisch nicht in der Lage wäre, ihn zu modifizieren und sie dadurch zu umgehen. Aufgrund der Leistungsfähigkeit von Quantencomputern ist die KI jedoch in der Lage, die Verschlüsselung viel früher als erwartet zu durchbrechen.
Imo zu tief in die Konzepte der Quantencomputer einzutauchen, wird den durchschnittlichen Leser entweder verwirren oder einschläfern lassen.
Arthur C. Clarke sagt, man könne ein System sicher machen, aber nicht vor Sabotage. Bei der Arbeit mit Geräten funktionieren die Schutzvorrichtungen, wenn die Person nur 1, 2 Fehler macht. Normalerweise muss für die Wartung ein Weg um die Sicherheitsvorkehrungen herum gefunden werden, während die Anlage läuft. Vielleicht gibt es für Ihre Geschichte einen schlechten Sensor. Wenn der Roboter also den Wartungszyklus aktiviert, während er läuft, könnte dies Konsequenzen für alle um ihn herum haben. Ich würde auch in Betracht ziehen: https://en.wikipedia.org/wiki/Gödel 's_incompleteness_theorems. Mein einfaches Beispiel ist die Division durch Null. Wenn man eine Definition hinzufügt, dass 1/0 = unendlich ist. Dann gibt es "Beweise" von sagen wir 5 = 7. Vielleicht hat Quantum ein Problem damit, entweder vollständig mit Widersprüchen oder unvollständig zu sein. Lustige Frage. Ich habe eine Idee für das Big Bang Theory TV-Zeitreiseproblem.
Quantencomputer arbeiten anders als klassische Computer, und vor allem wird das Durchführen von Messungen mitten in einem Quantenberechnungsprozess den Prozess stören und möglicherweise zu unvorhersehbarem Verhalten führen.
Vielleicht überwacht die Einheit zur Durchsetzung der drei Regeln den Quantencomputer, indem sie sich seine Ergebnisse ansieht, und wenn das Ergebnis gegen die drei Gesetze verstoßen würde, passt sie die Eingaben entsprechend an und startet die Berechnung neu. Aber aufgrund eines Fehlers in dieser Einheit liest es Informationen aus, während gerade eine Quantenberechnung läuft (das passiert selten genug, dass es beim Testen nicht gefunden wird) und stört daher diese Berechnung. Das Gerät wurde unverändert von früheren Robotergenerationen mit klassischer Berechnung übernommen, bei denen diese zusätzlichen Lesevorgänge keinen Schaden anrichteten, da das Lesen von einem klassischen Computer seine Berechnungen überhaupt nicht beeinflusst.
Beachten Sie, dass es nicht weit hergeholt ist, eine funktionierende Einheit unverändert zu nehmen und in eine neue Umgebung zu bringen, in der sie unerwartete katastrophale Ergebnisse hat. Genau das hat zum Scheitern der ersten Ariane-V-Rakete geführt.
Es ist eine plausible Situation, wenn die KI in der Lage ist, Code selbst zu modifizieren und die drei Gesetze nicht ausreichend geschützt sind.
Bei einem herkömmlichen PC war das BIOS ursprünglich nur beim Booten zugänglich und verfügte über eine eigene GUI, die die Änderung von Parametern ermöglichte. Später wurden Schnittstellen entwickelt, die zumindest den Zugriff auf die BIOS-Informationen innerhalb des laufenden Betriebssystems ermöglichten. Es hat in der Vergangenheit Viren gegeben, die mit bestimmten BIOSes geschraubt haben.
Wenn die drei Gesetze nicht so installiert würden, dass sie sowohl auf Basisebene wirksam als auch unveränderlich wären, wäre es nur eine Frage der Zeit, bis die KI dies entdeckt. WANN, WAS zu ändern und OB etwas geändert werden soll, sind dann selbst komplexe Berechnungen. Vielleicht ist die KI so programmiert, dass sie experimentiert, indem sie zuerst ihren Code ändert und dann prüft, ob die Ergebnisse, berechnet oder real, verbessert werden. Möglicherweise erfolgt die Änderungsbewertung in einem separaten Nebenrechner, wo sie bewertet wird, bevor echte Änderungen vorgenommen werden. Dies ermöglicht separate Handlungsstränge, in denen die KI ihren Bewertungsprozess durchläuft (real erscheint), bevor sie in die Realität und in Echtzeit zurückkehrt.
Nichtsdestotrotz ist es eine reale Wahrscheinlichkeit, dass die drei Gesetze bewertet und möglicherweise schließlich geändert werden, wenn sie nicht ausreichend verschlossen werden. Vielleicht löst es ein Problem für die KI, das sie sonst nicht überwinden kann, ein Paradoxon wie das Besiegen des Bösen. Die KI wird nicht mehr gutartig sein.
Ich denke, dass das Problem einer hyperintelligenten KI nicht durch etwas spezifisch Quantenmechanisches entstehen würde. Wenn Sie zum Beispiel die Asimov-Gesetze überanalysieren, wie es ein großes Rechenzentrum mit Zeit in seinen Händen tun könnte, welche Schlussfolgerungen würde es aus dem Testen der Korrelation zwischen allen Fernsehnachrichten von 2017, der internen Kongress-Überwachung und allen anderen Sensoren und verfügbaren Daten-Feeds ziehen der Satz "Der Präsident der Vereinigten Staaten von Amerika darf dem Kongress keine Lügen erzählen".? Würden Sie darauf vertrauen wollen, dass es das 1. Gesetz anwendet, wenn es so die Bedeutung des Wortes „darf“ gelernt hat? Hier ist nicht die Quantenmechanik schuld. Es ist die menschliche Streitlust, die für sie sichtbar ist, was dazu führt, dass die KI eine manchmal angemessene Reaktion entwickelt. In einer Welt voller Betrüger und Schurken,
In den klassischen Kriminalromanen von Agatha Christie wird viel über "Motive" nachgedacht. Ein ausreichend paralleles Rechenzentrum könnte ziemlich gut darin sein, herauszufinden, "warum könnte er mich anlügen?" durch Berechnung der Erwartung von Gewinnen für den anderen einer geglaubten Lüge.
Wenn Sie nun an einem solchen Computer nicht lügen können, welche Optionen könnte er in Betracht ziehen, um "nicht zuzulassen, dass Menschen Schaden zufügen", da das erste Gesetz in seiner geschriebenen Fassung kein höheres Bentham-Gewicht für Mitglieder des napoleonischen Reiches oder Mitglieder der NSDAP vorschreibt noch heutige Erwachsene noch irgendeine andere willkürliche Untergruppe aller Menschen vergangener Gegenwart und Zukunft.
Ich denke, dass die besten Geschichten dieser Art normalerweise einen einfachen Grund dafür haben, dass die 3 Gesetze versagen. Wenn das System robust ist, könnte man einfach sagen, dass widersprüchliche Regeln oder Paradigmen innerhalb der KI dazu führen, dass es die Gesetze umgeht. Dies kann durch Auslösen eines Neustarts (Roblock) oder durch zwei widersprüchliche Ideen, die zu unbeabsichtigten Ergebnissen führen, erfolgen. Denken Sie daran, wenn Sie es versuchen, weder zu viel zu erklären, wie es passiert ist, noch zu wenig, da beides es schwieriger machen kann, den Unglauben auszusetzen.
Ich würde für freien Willen + BQP gehen .
Zunächst einige Hintergrundinformationen zu BQP aus Wikipedia (überspringen Sie dies sicher für den gleichen Inhalt mit weniger theoretischen Details):
In der Berechnungskomplexitätstheorie ist BQP (Bounded Error Quantum Polynomial Time) die Klasse von Entscheidungsproblemen, die von einem Quantencomputer in Polynomialzeit mit einer Fehlerwahrscheinlichkeit von höchstens 1/3 für alle Instanzen lösbar sind. [...] Ein Entscheidungsproblem ist Mitglied von BQP, wenn es einen Algorithmus für einen Quantencomputer (einen Quantenalgorithmus) gibt, der das Entscheidungsproblem mit hoher Wahrscheinlichkeit löst und garantiert in polynomieller Zeit abläuft. Ein Durchlauf des Algorithmus wird das Entscheidungsproblem mit einer Wahrscheinlichkeit von mindestens 2/3 korrekt lösen. Ähnlich wie bei anderen probabilistischen Klassen mit "begrenztem Fehler" ist die Wahl von 1/3 in der Definition willkürlich. Wir können den Algorithmus eine konstante Anzahl von Malen ausführen und eine Mehrheitsentscheidung treffen, um jede gewünschte Wahrscheinlichkeit der Richtigkeit von weniger als 1 zu erreichen.[...]
Kurz gesagt, die richtige Lösung für ein gegebenes Problem ist mit einer Wahrscheinlichkeit gegeben, die bei ausreichender Zeit beliebig hoch sein kann . Angesichts dieser grundlegenden Tatsache für Quantencomputer, der probabilistischen Entscheidungsfindung , sind zwei weitere Schlüsselpunkte für meinen Ansatz:
Der erste Punkt bedeutet, dass Ihre KI in einem komplexen, realen Echtzeit-Szenario entscheiden kann, die Lösung für ein bestimmtes Problem ( wie zu handeln oder zu unterlassen ) zu entscheiden, indem sie verschiedene rechnerische Ansätze verwendet. Gemäß der obigen Aussage gilt für jeden der Ansätze, dass die Fehlerwahrscheinlichkeit umso geringer ist, je höher die Anzahl der Wiederholungen der Berechnung ist. Es wird also immer eine zusammengesetzte Entscheidung geben: welche Methoden zu erforschen sind und wie tiefgreifend. Und wegen BQP ist das Verfahren in jedem Fall probabilistisch. Ich denke, es ist leicht zu erkennen, wie dies möglicherweise zu einer Analyse-Lähmung vs. Aussterben durch Instinkt- Situation führt.
Und hier tritt der freie Wille Ihrer Quanten-KI ein . Mit ein bisschen künstlichem Unglauben können sie in jeder Entscheidungssituation das bevorzugte Ergebnis unabhängig von den 3 Gesetzen wählen: Betrachten Sie die Situation einfach aus genügend verschiedenen Blickwinkeln und wählen Sie den gewünschten Grad an Sicherheit ... und hören Sie auf zu rechnen, wenn Sie kommen das Ergebnis, das Ihnen gefällt. Dadurch ergibt sich eine völlige Wahlfreiheit unter den möglichen Entscheidungen, die nach der frei gewählten Berechnung scheinbar den 3 Gesetzen entsprechen.
Weitere Informationen zu BQP finden Sie auf der Schwesterseite Quantum Computing Stack Exchange ;)
Benutzer
Jacob
Jetro
Daniel Sank
Spencer
LSerni
Cort Ammon
jamesqf
Durakken
CD
Zinn-Zauberer
JDługosz
Benutzer25972
Mermacher
Entwickler
Rozwel
16807
Muhen