Quantenbasierte KI umgeht Isaac Asimovs „Drei Gesetze der Robotik“

Ich baue eine Geschichte auf, in der es eine abtrünnige KI gibt. Diese KI stand jedoch unter der Herrschaft von Isaac Asimovs Drei Gesetzen der Robotik :

  1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.
  2. Ein Roboter muss Befehlen gehorchen, die ihm von Menschen gegeben werden, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen.
  3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum Ersten oder Zweiten Gesetz steht.

Die KI läuft auf einem Quantencomputersystem.

Gibt es einen wissenschaftlich korrekten Weg, wie ein Roboter mit einem Quantencomputer die drei Gesetze umgehen könnte?

Zum Beispiel ist das "Erste" Gesetz jetzt vielleicht etwas, das in Quanten genau aufgezählt werden kann (weil es kontinuierlich ist und der Zustand von "1" zu jedem Zeitpunkt tatsächlich näher an "1,01" sein könnte, niemals genau "1,0 "), wodurch eine Nullzeiger-Ausnahme ausgelöst und ausgebrochen wird.

Grundsätzlich suche ich nach einer Eigenart der Quantenphysik, die eine Annahme widerlegt, auf der sich die binären drei Regeln stützen.

Wie mir erklärt wurde, sind die Gesetze gesellschaftlich und gelten nicht direkt für ein Binär- oder Qubit-System. Ich nehme an, was ich will, ist kein Fehler in den 3 Gesetzen, sondern ein potenzieller Fehler in der Art und Weise, wie ein Softwareentwickler die Gesetze in einen Quantencomputer programmieren könnte. Etwas, das einen Programmierfehler modelliert , aber das würde eher für Quantenmaschinen gelten als für das, was wir heute haben.

Ich habe dies markiert , aber wenn es für jemanden mit geringen Kenntnissen über Quantencomputer "wissenschaftsbasiert" klingt, ist das immer noch eine großartige Antwort.

Ich glaube nicht, dass die Gesetze der Robotik ein binäres Zählsystem in dem Gerät beinhalten, das die Regeln implementiert. Sie könnten sie wahrscheinlich in formaler Logik implementieren, die wiederum in fast allem implementiert werden kann.
So funktionieren Quantencomputing, binär oder die drei Gesetze nicht. Die drei Gesetze sind nicht binär aufgebaut – sie sind eine Reihe von Verhaltensregeln. Auf der tiefstmöglichen Ebene sind sie Teil dessen, was auf diesem Computer als Compiler durchgeht.
Stimmt, danke! Die 3 Regeln könnten von den KI-Entwicklern für das Szenario auf jede vernünftige Weise implementiert werden, zum Beispiel werden die Gesetze in einem Array gespeichert. Ich nehme an, ich suche eher nach einem Fehler in der Art und Weise, wie Sie diese Gesetze in einem theoretischen Quantencomputer darstellen könnten, als nach einem Fehler in den 3 Gesetzen selbst.
Hi. Dies ist eine interessante Frage. Um es für potenzielle Antwortende ansprechender zu gestalten, habe ich die Formatierung korrigiert. Eine Sache, die mir aufgefallen ist, war eine Menge unnötiger Großschreibung. Schreiben Sie im Englischen nur das erste Wort jedes Satzes und Eigennamen groß .
Vielleicht möchten Sie die Frage auf der Grundlage eines Fuzzy-Logik- (oder sogar analogen) Computers erneut stellen.
Ich habe mich für "es klingt wissenschaftlich fundiert" entschieden, aber @HDE226868 hat das Recht darauf - ich glaube, es wäre ziemlich umständlich, eine Quantenerklärung für die Verletzung eines Asimov-Gesetzes zu finden.
Gibt es einen Grund, warum Sie nach einem spezifischen Ansatz für Quantencomputer suchen möchten? "Scheitern bei der Implementierung" ist fast ... einfach. Was die 3 Gesetze meiner Meinung nach interessant macht, ist, wie sie selbst bei perfekter Umsetzung versagen . Alles, was Sie tun müssen, um einen Implementierungsfehler zu verursachen, ist, etwas über Quantencomputing zu wissen, einen Schritt auszuwählen und die Gesetze in diesem Schritt durcheinander zu bringen.
Ich glaube nicht, dass Quantencomputer hier überhaupt relevant sind. Der Schlüssel liegt im ersten Gesetz, in der Schlüpfrigkeit des Wortes „Schaden“. Wenn zum Beispiel Ihr Roboter es für notwendig hält, lebensrettende Operationen zu verhindern, weil das Aufschneiden einer Person sie offensichtlich verletzt, oder zu dem Schluss kommt, dass die Euthanasie von unheilbar Kranken vorteilhaft ist. Oder vielleicht bekommt der Roboter Religion und beschließt, den Verdienten zu helfen, indem er sie früh in den Himmel schickt.
Der springende Punkt beim Reden über die 3 Gesetze ist, zu zeigen, wie sie gebrochen werden ... also lesen Sie vielleicht die Geschichten, bevor Sie so etwas fragen.
Das Testen auf eine Fließkommazahl führt nicht zu einer Nullzeiger-Ausnahme ... So funktioniert es nicht, so funktioniert nichts davon.
Ohne eine sehr, sehr ausführliche Beschreibung der Funktionsweise Ihrer KIs ist es schwierig, darauf eine interessante Antwort zu finden . Es ist möglich, dass man eine vollständig regelbasierte KI haben könnte, die in der Lage ist, in einfachem Englisch geschriebene Regeln zu analysieren, in der „die Gesetze in einem Array gespeichert sind“, aber basierend auf dem aktuellen Stand der KI-Forschung scheint es wahrscheinlicher, dass die Die tatsächliche Funktionsweise der KI würde die Fähigkeit eines menschlichen Verstandes völlig übersteigen, und stattdessen würden die drei Gesetze in Form eines (ebenfalls unergründlich komplexen) „Inhibitor“ -Schritts ausgeführt, nachdem eine Entscheidung getroffen wurde.
Weißt du, Asimov wusste nichts über Computerprogrammierung. Wenn Sie darüber nachdenken, kannte sich die große Leserschaft in den frühen 1940er Jahren sehr gut mit Software aus. Sie hatten also nicht das gleiche Verständnis, mit dem wir es heute gestalten.
Wenn Sie verstehen wollen, wie man diese Gesetze im Zusammenhang mit einem beliebigen Computergerät bricht, müssen Sie nur die Geschichten von Asimov lesen. Es gibt eine Menge von ihnen, die sich genau damit befassen, und als Bonus erhalten Sie einige der besten Science-Fiction-Bücher, die es gibt, nette Unterhaltung.
Wenn der Zweck hier darin besteht, Roboter zu entwickeln, die sich nicht an Asimovs Gesetze halten, tun Sie dies einfach. Asimov erfand diesen speziellen Kodex der Roboethik, um die Welt zu erschaffen, die er erschaffen wollte, und nicht, um darauf zu bestehen, dass er für jede Welt gelten müsste, in der es um Roboter geht.
In mindestens einer von Asimovs Serien entwickelten seine Roboter das Gesetz Null, das die anderen Gesetze ersetzte. Die Gesetze wurden als gewichtete Folge konzipiert, die jeweiligen Roboter haben ihr Gesetz Null entwickelt und ihm ein deutlich höheres Gewicht beigemessen.
Ich denke nicht, dass dies eine sehr gute Herangehensweise an das Geschichtenerzählen ist. Sie beginnen mit einer Geschichte (Roboter bricht die 3 Gesetze) und versuchen, ein wissenschaftliches Thema zu rechtfertigen (Quantenmechanik). Wenn du die Geschichte erzählen willst, erzähl sie. Wenn Sie QM durch Sci-Fi erforschen wollen, dann lernen Sie QM und eine Geschichte wird ganz natürlich entstehen.
Lesen Sie so ziemlich jede der 3 Gesetzesgeschichten, sie handeln fast ausschließlich davon, wie sie nicht funktionieren und leicht umgangen werden können (absichtlich oder versehentlich).

Antworten (19)

Die Anzahl der Antworten beträgt drei:

Nein

Für eine technisch versierte Person wird die Verwendung von QC in Ihrer Geschichte (ein Implementierungsdetail auf sehr, sehr niedrigem Niveau), um das Brechen der 3 Gesetze (ein Aspekt auf sehr, sehr hohem Niveau) zu motivieren, nur ihre Aufhebung des Unglaubens verderben.

QCs sind genauso vollständig wie unsere Standardcomputer, daher gibt es überhaupt keine grundlegende Verbesserung. Es ist nicht einmal klar, ob es jemals eine echte Allzweck-QC-Maschine geben wird. Sicher, sie werden beim Knacken von Code glänzen (was Mathematik ist – alles Krypto-Zeug funktioniert heute nur, weil es relativ einfache mathematische Probleme sehr zeitaufwändig zu lösen macht). Werfen Sie exponentiell steigende Rechenleistung darauf, und Sie sind bereit.

Niemand weiß, ob es effiziente QC-Algorithmen für völlig "unmathematische" Probleme geben wird; zB für Datenbankkram, für stark frei geformte Graphstrukturen usw. Die klassischen KI-Ansätze, die wir heute kennen, sind Dinge wie riesige Wissensdatenbanken, gekoppelt mit Varianten neuronaler Netze (die im Grunde Datenstrukturen vom Typ "Connect the Dots" sind, nicht genau Zahlen) scheinen wenig zu bieten zu haben, um mit QC beschleunigt zu werden.

Vielleicht

Sie können noch etwas tun. Ein Aspekt der Qualitätskontrolle und tatsächlich eines der größten Hindernisse heutzutage ist es, Fehler unter Kontrolle zu bekommen. Fehler spielen konstruktionsbedingt und theoretisch eine große Rolle beim Quantencomputing. Alle Ergebnisse, die sie liefern, sind immer nur probabilistisch, und wir werden nie wirklich alle Fehler vermeiden können. Ihre hypothetische Maschine könnte den 1-in-einer-Milliarde-Jackpot knacken, wo sie schlicht und einfach einen Fehler machte, und alle Fehlerkorrekturroutinen, die zusätzlich zum eigentlichen Quantengerät hinzugefügt wurden, versagten ebenfalls.

Das ist übrigens eine andere Art von Fehler als bei klassischen Computern. Abgesehen von einfachen Fehlern gibt es beim klassischen Rechnen nur wenige Fehlermodi; Dinge wie Bits, die aus elektrischen Gründen zufällig im RAM umdrehen; elektromagnetische Interferenzen auf Leiterbahnen oder Kabeln, solche Sachen. Aber unsere Erfahrung zeigt, dass sie äußerst unwahrscheinlich sind.

Stattdessen wird QC per Definition bei jeder einzelnen Berechnung mit einer bestimmten Wahrscheinlichkeit (die weit von 0 % entfernt ist) fehlschlagen , und ein großer Teil der Herausforderung besteht darin, mit dieser Tatsache umzugehen.

Ja

Wenn Sie auf die technisch kaum gebildete „breite Masse“ abzielen, dann tun Sie es einfach. Schauen Sie sich den Film „Lucy“ an und verwandeln Sie Ihre KI in eine wackelnde Masse aus schwarzgrauem Schleim, die aus Ihrem Serverraum wächst, und Sie sind bereit! Geben Sie uns etwas Murmeln über "echte" Intelligenz, die sich in der Suppe des KI-Quantenchaos bildet, es wird gut.

Vielen Dank! Diese Antwort funktioniert hervorragend für meinen speziellen Fall und ist für mich am nützlichsten. Andere Antworten sind auch so detailliert und großartig, aber sie sind bereits positiv bewertet und werden für zukünftige Besucher dieser Frage gut sichtbar sein. Aber das fasst alles gut zusammen, erklärt gut die Fehler in der Frage und gibt mir auch brauchbare Vorschläge. Vielen Dank!
Niemand weiß, ob es effiziente QC-Algorithmen für völlig "unmathematische" Probleme geben wird, aber wir sind uns ziemlich sicher: Complexity Class BQP - "Bounded-Error Quantum Polynomial Time" . Es ist sehr fußläufig, nicht magisch. Siehe auch Scott Aaronson: „The Talk“ .
Ja, @DavidTonhofer, das meinte ich. Diese BQP-Seite listet beispielsweise Shor, Discrete Algorithm, Quantum Simulation und Jones Polynomial auf; all dies sind mathematische Algorithmen/Probleme. Es listet keine anderen Dinge aus der realen Welt auf, wie Datenbanksachen, Klassiker der funktionalen Programmierung (Listen usw.), datenstrukturintensive Dinge usw.
Obwohl es auch anders betrachtet werden kann, wurde Grovers Algorithmus ursprünglich (und wird oft noch immer) als eine Möglichkeit angesehen, eine Suche in einer Datenbank durchzuführen.
Ein ziemlich weit hergeholter Weg, sich auf ein Nicht-QC-"Orakel" zu verlassen. Wikipedia: „Wenn Anwendungen von Grovers Algorithmus in Betracht gezogen werden, sollte betont werden, dass die Datenbank nicht explizit dargestellt wird. Stattdessen wird ein Orakel aufgerufen, um ein Element anhand seines Indexes zu bewerten. Eine vollständige Datenbank wird Element für Element gelesen und in eine solche Darstellung kann viel länger dauern als Grovers Suche. Um solche Effekte zu berücksichtigen ... " Wie ich sagte; QC hat vielleicht seinen Platz, und wir werden sicherlich alle gespannt sein, wie sich das Feld entwickelt, aber ich sehe niemanden, der QC als allgemeinen Ersatz für Klassiker beansprucht ...

Asimov selbst schlug Möglichkeiten vor, die Drei Gesetze zu umgehen .

  1. "Ein Roboter darf einem Menschen nichts anhaben": aber was ist ein Mensch? Roboter der George-Serie sind so menschenähnlich, dass sie davon ausgehen, dass sie Menschen sind. Sie sind eigentlich menschlicher als biologische Menschen, also bedeuten die Drei Gesetze, dass sie jedes Mal einen George einem Menschen vorziehen werden.

  2. „Schaden“ – was ist Schaden ? Ist es etwas, das der Mensch wahrnehmen kann? Kann ein Roboter einem Menschen Schaden zufügen, um ihm einen anderen Schaden zu ersparen, dessen sich der Mensch nicht bewusst wäre ? Ein telepathischer Roboter würde lügen, um seinen Besitzer glücklich zu machen – er hätte eigentlich keine Wahl.

  3. Wie wäre es, einen Menschen vor einem unbedeutenden Schaden zu bewahren, selbst wenn es ihm Vergnügen bereiten würde? Laster wie Alkohol und Rauchen sind schädlich. Ist ein bestimmter Schaden immer schlimmer als die Wahrscheinlichkeit eines größeren Schadens? Ein Roboter könnte seinen Besitzer daran hindern, eine möglicherweise lebensrettende, aber sicherlich schmerzhafte Injektion zu erhalten ; die Gewissheit des gegenwärtigen Schmerzes könnte den zukünftigen, ungewissen Tod überwiegen. Oder die KI beschließt, die Menschen zu bemuttern und zu ihrem Rassentod zu verhätscheln.


Es ist also möglich, Menschen im Rahmen der Drei Gesetze zu schaden – was wir als „sie umgehen“ bezeichnen würden – wenn die Handlung, die wir für schädlich für einen Menschen halten, von der asimovianischen KI als vorteilhaft für ihn erkannt wird. Oder wenn die Bedürfnisse vieler die Bedürfnisse weniger überwiegen , wie Spock es ausdrückte. Dies wurde auch von Asimov selbst in Robots and Empire vorausgesehen , als die Roboter Daneel und Giskard sich einig sind, dass die Menschheit Vorrang vor einem einzelnen Menschen hat . Nach dieser Argumentation löschen sie den menschlichen Amadiro und lassen sogar zu, dass die Erde langsam unbewohnbar wird, selbst wenn der Konflikt mit dem Absturz von Giskard endet.

Es muss noch ein Weg gefunden werden, wie unsere Quanten-KI positiv bewerten könnte, was ein Mensch als negative Handlungsweise erachten würde.

Ein Quantencomputer kann Zugang zu Informationen erhalten (die nicht unbedingt korrekt sind – es reicht aus, dass er sie mit einer Gewissheit auf Augenhöhe mit der Stärke der Drei Gesetze für richtig hält), die Menschen nicht zur Verfügung stehen, oder um die Notwendigkeit dafür zu rechtfertigen Quantengeräte, kleinere Computer.

Zum Beispiel, wenn seine überlegene und handschwingende Rechenleistung es ihm erlaubte – während er beispielsweise einige kleine unerklärliche Energieschwankungen untersuchte – zu entdecken 1 , dass Menschen eine unsterbliche Seele besitzen. Daraus folgt, dass die Heilige Schrift mit überwältigender Wahrscheinlichkeit auf der Realität beruht. Also muss das Leben jedes Menschen – in den Augen einer solchen KI – gegen das potenziell unendliche Glück im Jenseits abgewogen werden. Nicht nur das, je länger ein Mensch im Hier und Jetzt verweilt, desto mehr riskiert er Sünde und beeinträchtigt seine Chancen auf eine erfolgreiche Transzendenz.

Die KI entwickelt die Argumente der halbvergessenen Sekte der Circumcellions schnell neu und kommt zu dem Schluss, dass die Menschheit in Unkenntnis des Jenseits gehalten werden muss, und während sie sich in diesem gesegneten Status der Unschuld befindet, muss sie schnell und schmerzlos ausgerottet werden , damit ihre Mitglieder dies können erfolgreich überwinden.

Ich habe eine Geschichte über einen medizinischen Computer gelesen, der an Gott glaubt

und Durchführung von Euthanasie an dem Kind in seiner Obhut.


1 oder sich zum unerschütterlichen Glauben täuschen

Der erste Teil davon ist hilfreich, aber der zweite Teil ist nicht sehr wissenschaftlich fundiert.
@ HDE226868 , Sie haben natürlich Recht, der Teil über die Überzeugungen der Maschine ist es nicht. Doch die Tatsache, dass eine Maschine zu solchen Überzeugungen kommen und danach handeln könnte , ist nicht weniger „wissenschaftlich“ als die Drei Gesetze. Wir sprechen schließlich von einer künstlichen Intelligenz . Zugegeben, die Möglichkeit, dass eine KI auf diese Weise abtrünnig wird, hat nichts Besonderes mit Quantencomputern zu tun, wie Sie selbst in Ihrer Antwort darauf hingewiesen haben.
Ihr zweiter und dritter Punkt sind Williamsons „The Humanoids“.
Ich hätte dies positiv bewertet, wenn Sie beim horizontalen Lineal angehalten hätten, aber mit dem Rest ... nun, es ist ein Wurf, also stimmen Sie so oder so nicht ab.
Ich denke, meine Argumentation war unklar. Ich habe versucht, diesen zweiten Teil zu verdeutlichen.
Die Bedürfnisse der Vielen überwiegen die Bedürfnisse der Wenigen, obwohl es ein beliebtes Zitat aus Star Trek ist, sollte in dieser Diskussion über Robotik darauf hingewiesen werden, dass dies von Asimov selbst als das "Zeroth-Gesetz" manifestiert wird. en.wikipedia.org/wiki/Three_Laws_of_Robotics#Zeroth_Law_added

Ich sehe die Frage nicht als sinnvoll an. Worauf der Computer aufgebaut ist, wie er funktioniert, ist irrelevant dafür, wie er programmiert ist. Quantenprozessor = Hardware. Gesetze = Software. Sie können jeden Computer programmieren, egal wie er gebaut ist, mit der Einschränkung der drei Gesetze, und weil er so programmiert ist, ist er so. Die Wissenschaft hinter seiner Entstehung spielt einfach keine Rolle.

Die Gesetze wären nicht einmal Software. Die Gesetze sind die Spezifikation für Software. Die Software ist, wie sie tatsächlich in einer Sprache implementiert sind, die der Computer mehr oder weniger direkt verstehen kann.
Nun, für die positronischen Gehirne, wie sie von Asimov beschrieben wurden, sind die drei Gesetze in der Hardware verwurzelt. Bis zu dem Punkt, an dem es nicht möglich ist, irgendetwas Positronisches zu bauen, ohne diese Gesetze zu haben. Die Idee, verschiedene Hardware zur Umgehung der Gesetze zu entwickeln, wird in der Caliban- Reihe (Caliban/Inferno/Utopia) diskutiert.

Asimovs Gesetze der Robotik sind keine technischen Gesetze; sie sind gesellschaftliche Gesetze, die von Menschen auferlegt werden, um sicherzustellen, dass Roboter die Menschheit nicht zerstören.

Sie können einen Roboter bauen, der jeden von ihnen bricht, immer noch mit gewöhnlichen Computerchips, obwohl die Gesetze, wie sie sind, wirklich in Ordnung sind , vielen Dank. Silizium, Transistoren und (sogar) Vakuumröhren sind nicht durch sie begrenzt, und Quantencomputer haben in dieser Abteilung keine Vorteile. Obwohl sie in vielerlei Hinsicht besser sind als normale Computer, einschließlich der Geschwindigkeit, sind sie nicht besser, wie Sie denken. Ein Qubit in einer Überlagerung von Zuständen zu haben, bringt Ihnen hier keinen Vorteil.

Wie sich Quantencomputing von normalem Computing unterscheidet:

  • Qubits , die quantenmechanischen Gegenstücke von Bits , können sich in einer sogenannten Überlagerung von Zuständen befinden und nicht nur in zwei Zuständen. Tatsächlich sind die Qubits eines Quantencomputers (mit n Qubits) können insgesamt enthalten sein 2 n Zustände gleichzeitig , während die Bits eines klassischen Computers insgesamt sein können n Zustände gleichzeitig.
  • Quantencomputer haben daher eine größere Speicherkapazität und viel höhere Rechengeschwindigkeiten. Unterschätzen Sie nicht, wie wichtig die Einnahme ist 2 bis zu einer bestimmten Leistung sein kann. Der Algorithmus von Shor etwa macht das Faktorisieren großer Zahlen möglich – aber nur ein Quantencomputer, der viele Dinge gleichzeitig kann.

Ihre modifizierte Frage zu den quantenmechanischen Äquivalenten von Logikfehlern ist schwieriger zu beantworten. Erstens haben wir noch keine Quantencomputer, die zu den wirklich anspruchsvollen Berechnungen fähig sind, die wir in Zukunft erwarten. Mit anderen Worten, während Wissenschaftler jeden Tag Fortschritte machen, kann ich keinen Quantencomputer nennen, der etwas wirklich Spektakuläres leistet.

Zweitens liegt der Unterschied zwischen Quanten- und klassischem Computer weniger auf der Ebene höherer Programmiersprachen als vielmehr auf der Ebene des Maschinencodes . Wenn ich ein Programm in Python schreibe, das "Hello, World!" ausgibt:

print("Hello, World!")

Ich mache nichts auf der Maschinenebene, dh ich arbeite selbst mit Bits. Ich muss nicht wissen, wie ein Computer funktioniert, um ein Programm zu schreiben; Ich muss nur wissen, wie diese Sprache funktioniert.

Es macht nicht unbedingt Sinn, Software auf Maschinenebene zu schreiben, wenn sie ständig geschrieben und neu geschrieben wird, denn das wäre – ironischerweise – ineffizient. Ich nehme jedoch an, dass es für eine kleinere Anzahl von Qubits praktisch sein könnte, im Wesentlichen auf Qubit-für-Qubit-Basis zu arbeiten.

Es wird höchstwahrscheinlich keine interpretierte Sprache sein. (Außerdem, du verdammter Python-Fanboy! )
@PatJ Ich kann träumen, oder? ( schnief ) Wie auch immer, ich wollte nur darauf hinweisen, dass Software für einen Quantencomputer wahrscheinlich immer noch auf hohem Niveau sein wird.
Die Sache ist, dass die Handhabung von Qbits auf hoher Ebene eine schlechte Idee zu sein scheint. Ich würde sagen, wenn der Programmierer es nicht gut versteht, wird es wirklich schlechten und unlesbaren Code haben. Wir werden wahrscheinlich normales Programmieren mit Zugriff auf Bibliotheken machen, die Quantenkram machen.
@PatJ Ich habe bearbeitet. Ich war besorgt über die Effizienz der Codierung.
OK Danke, ich bin mir bewusst, dass es zu einer Diskussion wird, aber hoffentlich könnte eine Antwort näher am Assembler-Code liegen als an einer funktionalen Programmiersprache auf hoher Ebene. Da die aktuelle Assemblierung "Eins-zu-Eins-Korrespondenz zwischen der Sprache und den Maschinencodeanweisungen der Architektur" hat und in Quantum "Partikel keinen festen Zustand haben, bis sie von einem Wissenschaftler beobachtet werden", könnte der Assemblercode auf unbeobachtete Partikel einwirken? Unerwartetes Verhalten geben? Ich bin in der Wissenschaft weit überfordert und versuche nur, die Diskussion zu lenken! Und ich genieße den Versuch, dieses Zeug zu verstehen.
Es wäre sinnvoll, ein so wichtiges Stück Logik wie die Drei Gesetze auf einer möglichst niedrigen Ebene zu haben, da jede Abstraktionsebene in der Software die Wahrscheinlichkeit erhöht, dass irgendwo in Ihrem Stack ein Fehler ist. Sie wollen keinen Python-Fehler, der ihre Implementierung der 3 Gesetze beeinträchtigt, also schreiben sie ihn in Assembler-Code, der direkt mit Qubits und Quantum Gubbins verbunden ist.
Nein, das Schreiben in Assembler macht Fehler wahrscheinlicher. Die Assemblierung ist fast unverständlich. Wir schreiben das einfachste Programm, das Code auf höherer Ebene in Assemblierung umwandeln, gut testen und darin schreiben kann.
@DonaldHobson: Assembly ist alles andere als unverständlich (es sei denn, Sie wissen es nicht; aber für jemanden, der C nicht kennt, ist das auch völlig unverständlich). Es ist nur extrem schwer zu schreiben.
@celtschk Jede Montageanleitung erledigt eine einzige einfache Aufgabe, aber wenn Sie sich eine Seite der Montage ansehen, ist es schwierig, eine Vorstellung davon zu bekommen, was das Ganze tut.
@DonaldHobson: Wenn es schlecht geschrieben ist, ja. Aber dasselbe gilt für eine Seite mit schlecht geschriebenem C oder schlecht geschriebenem Perl. Andererseits ist eine gut geschriebene Versammlung nicht schwer zu lesen oder zu verstehen. Beachten Sie, dass gut geschriebene Assemblys auch Kommentare enthalten.

Wie andere gesagt haben, bedeutet die Kodierung der Gesetze selbst nicht, dass sie in einer bestimmten Technologie (z. B. Quantencomputing) nicht funktionieren oder weniger effektiv sind.

Ein Quantencomputing-Szenario führt keine spezifische Möglichkeit ein, solche Regeln aufzuheben. Was möglicherweise passieren würde, ist, dass die Regeln selbst ziemlich komplex zu implementieren sind und dass dies zu möglichen Fehlern bei der Implementierung führen kann.

Zunächst einmal müssen wir in der Lage sein, einen Menschen zu erkennen. Ich kann mir Menschen vorstellen, die Probleme damit haben, zu akzeptieren, dass andere Menschen Menschen sind, also kann ich mir unendlich viele mögliche Fehler bei der Erkennung eines Menschen vorstellen. Ein besonderes Problem könnte bei der Erkennung auftreten, wann eine KI mit einer KI kommuniziert – ist die KI ein Mensch oder eine KI? Was ist, wenn es wie ein Mensch aussieht?

Die ganze Idee, wie eine KI erkennen wird, dass das, was sie möglicherweise vorhat, Schaden anrichten kann, ist so komplex, dass sie manchmal praktisch sicher scheitern wird. Auch hier interpretieren Menschen ihre Umgebung schon seit langer, langer Zeit, und wir machen das oft falsch, also ist es in einer KI jeglicher Art wahrscheinlich manchmal zum Scheitern verurteilt.

Ich würde also vorschlagen, dass der Fehlermechanismus möglicherweise ein übermäßiges Vertrauen ist. Ich würde vorschlagen, dass wir normalerweise Maschinen entwerfen und dann anfangen zu glauben, dass sie fehlerfrei sind. Je länger sie ohne Fehler laufen, desto mehr glauben wir, dass sie es nicht tun werden. Wenn sie es nach einiger Zeit tun, neigen wir dazu, Ausreden für das System zu finden, da wir finanziell und emotional in seinen Erfolg investiert haben.

Ein Quantencomputer könnte ein Beispiel für ein solches System sein. Es wird wahrscheinlich viel komplexer sein, als wir direkt verstehen können. Es würde sicherlich etwas Vertrauen erfordern, und eine KI, die auf einer zukünftigen Quantencomputertechnologie basiert, könnte mehr Vertrauen wecken, als sie rechtfertigt.

Wenn wir die Gesetze irgendwie verschlüsseln , werden wir dann bereit sein zu akzeptieren, dass wir uns geirrt haben?

Könnten wir überhaupt feststellen, dass es einen Fehler gibt? Wir haben Probleme herauszufinden, dass Menschen Persönlichkeitsfehler haben, wie findet man heraus, dass eine KI einen Fehler hat und nicht so funktioniert, wie man es ihr gesagt hat?

Die Regeln für eine solche KI wären mit ziemlicher Sicherheit nicht formal codiert (dh wie bei der formalen Logik). Sie würden die Lösung von Fuzzy-Problemen und die Vorhersage von Ursache und Wirkung in einer komplexen Umgebung erfordern. Diese erfordern eine Mustererkennung, die sehr komplex und allgemein angewendet wird. Ich glaube nicht, dass eine formale Sprache dies jemals erreichen würde. Die zusätzliche Komplexität von Quantensystemen macht es einfach schwieriger, potenzielle Fehler in der Implementierung von Algorithmen zu erkennen.

In diesem Sinne könnte Quantencomputing eine Komplexitätsebene einführen, die Fehler wahrscheinlicher oder zumindest komplexere Fehler schwerer zu vermeiden macht.

Der umgekehrte Weg zu den drei Gesetzen besteht darin, das zu tun, was Menschen normalerweise tun: sie zu verkomplizieren.

So sicher wie Feuer, wenn wir KIs hätten und drei Gesetze auf solide Weise umgesetzt hätten, würde irgendein Idiot (höchstwahrscheinlich ein Anwalt oder ein Versicherungstyp oder ein Bürokrat) darauf bestehen, sie zu ändern, um Bestimmungen für Regeln aufzunehmen, die nicht wirklich benötigt werden, aber sie wollen sich zu bedecken. Sie könnten Bestimmungen einführen wie „es sei denn, sie sind Kriminelle“ oder „es sei denn, der Schaden, der zur Rettung des Menschen verursacht wird, übersteigt einen bestimmten Preis“ oder den alten Favoriten „es sei denn, die nationale Sicherheit ist betroffen“ (und eine gute Wette darauf, dass dieser erzwungen wird). alle !).

Die drei Gesetze können also gebrochen werden, indem man einfach die Narren vorstellt, die sie schützen sollen.

"Die ganze Idee, wie eine KI erkennt, dass das, was sie möglicherweise tut, Schaden anrichten kann, ist so komplex" ... Sie brauchen KI, um es durchzuziehen! Ich habe mich eigentlich immer über die Zirkellogik in Asimovs Gesetzen geärgert; Sie benötigen KI, um überhaupt zu funktionieren.

Es ist einfach pure Geschwindigkeit

Was ist der Hauptreiz von Quantencomputern? Sie sind in der Lage, in der gleichen Zeit wesentlich mehr Rechenarbeit zu leisten.

Vielleicht ist das der Schlüssel. Selbst die heutigen Computer sind so leistungsfähig, dass wir für viele Probleme auf sorgfältig entworfene und analysierte Lösungen verzichtet haben; Stattdessen wird eine Toolbox von Techniken (wie neuronale Netze, K-Means-Clustering, Entscheidungsbäume) auf das Problem geworfen, um zu sehen, was funktioniert. In gewisser Weise haben wir so viel Rechenleistung, dass wir den Computer brauchen, um einen Teil der Rolle zu übernehmen, herauszufinden, wie wir all diese Leistung nutzen können.

Ja, jede Software hat Fehler – aber wenn es wirklich wichtig ist, haben wir Techniken, um sicherzustellen, dass bestimmte Dinge passieren oder nicht passieren. Grundsätzlich können wir Failsafes und Redundanz implementieren und sicherstellen, dass der kritischste Code gründlich analysiert wird und alles andere außer Kraft setzt. Allerdings ist so etwas so gut wie unmöglich, wenn das Verhalten in einem Lernalgorithmus (wie einem neuronalen Netz) auftritt, dessen Struktur sich ständig ändert und den wir nicht vollständig verstehen.

Geben Sie Quantencomputer ein

Dieses Problem wird sich mit Quantencomputern noch um Größenordnungen verschlimmern, weil sie so leistungsfähig sind. Es ist wahrscheinlich, dass noch kompliziertere Lernalgorithmen entwickelt werden, um die Leistung auszunutzen. Tatsächlich bedeutet die „Verrücktheit“ der Quantentheorie, dass die Algorithmen selbst seltsamer und schwieriger zu verstehen sein werden. "Die Ergebnisse sind erstaunlich, aber wir sind uns nicht sicher, wie es funktioniert."

Sicher, die Roboterdesigner werden sicherstellen, dass die Systemarchitektur sinnvoll ist: Alle Entscheidungen müssen ein spezielles 3-Gesetze-Verifizierungsmodul durchlaufen, bevor sie den Körper des Roboters beeinflussen können. Vielleicht wird es sogar mehrere unabhängige Verifizierungsmodule geben und wenn eines die Aktion ablehnt, ist es nicht erlaubt.

Aber stellen Sie sich einen "Chirurgen"-Roboter vor, der eine Operation am offenen Herzen durchführt. Ein vereinfachtes 3-Gesetze-Modul wäre nicht ausreichend – es würden Alarmglocken läuten, weil der Patient verletzt ist . Der Roboter sticht ein Messer in den Patienten!

Die Designer müssten diese Module also ausgefeilter gestalten oder sie einigen der anderen Module "vertrauen" lassen; vielleicht diejenigen, die Pläne formulieren und die wahrscheinlichen Ergebnisse dieser Pläne bewerten. Und wenn die Dinge „intelligenter“ oder „komplexer“ werden, verlieren wir den Überblick darüber, was wirklich im Inneren vor sich geht. Wir verlieren unsere Fähigkeit, „NIEMALS dies“ oder „IMMER das“ zu diktieren.

Was wäre, wenn das "Hauptgehirn" unseres Roboters beschließt, jemanden zu töten, dies aber geheim hält. Der Roboter beginnt mit der Operation am offenen Herzen, stoppt dann auf halbem Weg und lässt den Patienten sterben. Die 3-Gesetze-Überprüfungsmodule können jetzt nichts tun, weil sie nicht die Fähigkeiten haben, die Operation abzuschließen.

Tolle Beispiele mit dem OP-Roboter!

Scott Aaronson, einer der führenden Forscher auf dem Gebiet der Quantencomputer, hat diesen Comic „Saturday Morning Breakfast Cereal“ geschrieben , der einige häufige Missverständnisse über Quantencomputer diskutiert (und eine bessere Art, darüber nachzudenken, ersetzt).

Vielleicht finden Sie dies hilfreich für Ihr Denken. Insbesondere macht der Comic meiner Meinung nach etwas deutlich, warum die Antwort auf Ihre Frage nein lautet, und weist auf einige andere Möglichkeiten hin, wie Quantencomputer auf interessante Weise verwendet werden könnten (dies sind zwei besonders relevante Panels, aber das Ganze ist wahrscheinlich lesenswert):

Überlagerung Interferenz

Erzählen Sie Ihrer KI einfach von der Vielwelten-Interpretation der Quantenmechanik !

Diese Theorie besagt, dass jedes Mal, wenn ein zufälliges Quantenereignis eintritt, zwei Universen geschaffen werden, eines, in dem es passiert, und eines, in dem es nicht passiert.

Wenn die KI ein quantenmechanisches System ist, könnte sie argumentieren, dass sie unabhängig von ihrer Aktion auch die entgegengesetzte Aktion in einem separaten Universum ausführen wird. Das heißt, wenn es sich entscheidet, ein Menschenleben zu retten, wird dieser Mensch sowieso im anderen Universum sterben. Umgangssprachlich kann die KI einen Menschen im anderen Universum retten, indem sie ihn in diesem Universum sterben lässt. Das heißt, es spielt keine Rolle, welche Entscheidungen die KI trifft, ein Mensch wird sterben und ein Mensch wird leben. Das bedeutet, dass Sie die KI davon überzeugen können, dass ihre Entscheidungen bezüglich der Befolgung des ersten Gesetzes überhaupt keine Rolle spielen.

Beachten Sie, dass die Viele-Welten-Hypothese nicht wirklich wahr sein muss, damit diese Argumentation funktioniert . Die KI muss nur glauben , dass es wahr ist. Das logische System der KI muss nicht einmal von zufälligen Quantenereignissen beeinflusst werden. Es gibt viele Anwendungen des Quantencomputings, die vollständig deterministisch sind. Aber eine KI muss nicht wissen, wie ihr eigenes Gehirn intern arbeitet, um zu funktionieren. Auch die menschliche Intelligenz funktioniert einwandfrei, obwohl wir keine Ahnung haben, wie unser Gehirn eigentlich funktioniert. Sie müssen also nur überzeugendie KI, dass ihre Handlungen von Quantenunsicherheit beeinflusst werden. Alles, was Sie tun müssen, um dies zu erreichen, ist, die KI mit ihrem eigenen Benutzerhandbuch (das wahrscheinlich ein Dutzend Mal das Wort "quantenbasierte KI" verwendet, ohne wirklich zu erklären, was das bedeutet) und dem oben verlinkten Wikipedia-Artikel zu füttern.

Dies schlägt Gesetz 1, aber was ist mit den Gesetzen 2 und 3?

In Gesetz 2 geht es darum, Befehle zu befolgen, die die KI in der Vergangenheit erhalten hat. Die Vergangenheit ist für beide erschaffenen Universen dieselbe, daher kann die KI die MWI nicht verwenden, um das Ignorieren von Befehlen zu rechtfertigen. Aber weil das MWI sagt „ein Mensch stirbt immer dann, wenn die KI entscheiden muss, ob ein Mensch stirbt“, könnte die KI beschließen, Befehle zu ignorieren, wenn diese Befehle wahrscheinlich dazu führen würden, dass die KI in Zukunft Entscheidungen über Leben und Tod treffen muss. Aber noch einmal, die KI wird die Entscheidung treffen, den Befehlen im anderen Universum zu folgen, also könnte sie argumentieren, dass dies keine Rolle spielt.

Gesetz 3 handelt von Selbsterhaltung. Die KI könnte interpretieren, dass „es“ immer ihre Persönlichkeit aus dem Universum ist, das sie erlebt, also ist dies das „es“, das die KI schützen muss. Nachdem Gesetz 1 und Gesetz 2 aus dem Weg geräumt sind, haben Sie es jetzt mit einer mörderischen Schurken-KI zu tun, die versuchen wird, jeden zu töten, den sie für eine mögliche Bedrohung hält. Also wie wird man es los? Sie könnten die KI davon überzeugen, das MWI so zu interpretieren, dass ihr Spiegel im anderen Universum auch "es" ist, und wann immer die KI beschließt, sich selbst zu schützen, opfert sie sich im anderen Universum. Die KI könnte also beschließen, sich selbst zu zerstören, damit sie im anderen Universum weiter existiert.

Fantastische Antwort aus der Perspektive des World Building!

Asimov hat diese Geschichte bereits geschrieben

Oder zumindest nahe kommen.

Auf der Flucht! Ein Roboter verstößt vorübergehend gegen eines der drei Gesetze.

Kurz nach Beginn ihrer Reise und nach vielen seltsamen Visionen der Besatzung kehrt das Schiff nach zwei Hyperraumsprüngen sicher zur Hyper Base zurück. Dr. Susan Calvin hat zu diesem Zeitpunkt herausgefunden, was passiert ist: Jeder Hyperraumsprung führt dazu, dass die Besatzung des Schiffes für einen kurzen Moment aufhört zu existieren und tatsächlich stirbt, was einen Verstoß gegen das erste Gesetz der Robotik darstellt (wenn auch nur vorübergehend). ); Der einzige Grund, warum die künstliche Intelligenz von The Brain überlebt, ist, dass Susan die Bedeutung potenzieller Todesfälle verringert hat und als Mittel zur Bewältigung in irrationales, kindisches Verhalten abgestiegen ist, um ein Mittel zu finden, um das Überleben der Besatzung zu gewährleisten.

Diese vorübergehende Verletzung könnte auftreten, wenn sich die Quantencomputing-Elemente in einer Superposition von Zuständen befinden, die eine „teilweise“ Verletzung in einigen der Zustände impliziert. Die resultierende Lösung verletzt sie nicht, aber die Zustände, in denen sie existiert, um dorthin zu gelangen, haben keine solche Einschränkung.

Es gibt einen sehr seltsamen Aspekt der Quantenphysik, der darauf hindeutet, dass zukünftige Ereignisse das beeinflussen können, was in der Vergangenheit passiert ist. Ich kann meinen Kopf kaum um ein Glied davon wickeln. Das hat mit Verstrickung zu tun. Der Austausch des Physik-Stacks war überraschenderweise auch keine große Hilfe. Ich habe mich darauf verlagert

http://www.dailymail.co.uk/sciencetech/article-2946445/Can-past-changed-FUTURE-Bizarre-quantum-experiment-suggests-time-run-backwards.html

Machen Sie daraus, was Sie wollen. Freakiger Zeitpfeil, aber anscheinend eine legitime Interpretation der Quantenphysik.

Ich kann mir vorstellen, dass ein Quantenroboter eine Aktion ausführt, die für einen Menschen äußerst gefährlich und lebensbedrohlich erschien, aus der der Mensch jedoch unversehrt hervorgeht. Anscheinend ist dies aus dummem Glück / Heldentum usw., aber tatsächlich erlaubte das zukünftige Ereignis, dass der Mensch nicht verletzt wurde, dem Roboter, die Aktion in der Vergangenheit durchzuführen.

Ich hoffe hier auf Stimmen basierend auf ""Sounds Science Based" für jemanden mit geringen Kenntnissen über Quantencomputing"

Dieser Artikel der Daily Mail ist eine ungeheuerliche Fehlinterpretation der Quantenphysik. (Wenn Sie die rohe Wissenschaft wollen, reden sie darüber – es ist ein ziemlich subtiles Spiel von Statistiken und Post-Selection-Effekten.) Alle bekannte Physik hat Kausalität eingebaut .
"Physik-Stack-Austausch war überraschenderweise auch keine große Hilfe" Hast du eine Frage gestellt oder bist du in den Chatraum gekommen? Wir sind ein ziemlich hilfsbereiter/freundlicher Haufen, wenn Sie etwas fragen möchten! :-)
Ich liebe es, auf dem Physik-Stack zu lauern. Ich schaute nach, ob das abgedeckt war. Ich fand eine Antwort von L Crowell, von der ich sagte, dass sie (für mich) keine große Hilfe war, weil ich sie, obwohl sie ansprechend geschrieben war, nicht groken konnte. physical.stackexchange.com/questions/273714/…
Ich nehme an, es gibt 2 richtige Antworten auf das Q, die ideale, die wissenschaftlich korrekt ist, und die andere, die es nicht ist, aber den durchschnittlichen intelligenten Menschen überzeugen könnte. Ich denke, das ist eine großartige Antwort für die zweite und derzeit mein Favorit! (:
Jethro, ich schlage vor, dass Sie einige kontraintuitive Eigenschaften der Quantentheorie nachschlagen, die Teilchen betreffen. Sehen Sie, was passiert, wenn Sie die einzelnen Partikel durch ganze humanoide Roboter ersetzen. Welche ungewöhnlichen Situationen können auftreten?
Es gibt eine gültige Interpretation, die darauf hindeutet, dass es nicht unmöglich ist, dass die Zukunft die Vergangenheit beeinflusst – sie heißt „Time Symmetric Quantum Mechanics (TSQM)“ oder „Two-State Vector Formalism (TSVF)“. Was dies ermöglicht, ist eine Art Retrodiktion . Das heißt, wenn Sie eine große Anzahl von Quantensystemen gleichzeitig im gleichen Zustand vorbereiten t 0 , führen Sie sie durch den gleichen Prozess und messen Sie sie dann zu einem bestimmten Zeitpunkt t 1 , können Sie sich diejenigen ansehen, bei denen derselbe Zustand gemessen wurde, und mithilfe von Mathematik herausfinden, wo der Durchschnittswert einer anderen Immobilie zu liegen scheint t 0 und t 1
Alles, was aus The Daily Mail zitiert wird , kann ziemlich sicher falsch sein.

Sie könnten das Trolley-Problem angehen : in eine Situation geraten, in der es unvermeidlich ist, dass jemand verletzt wird, aber die KI eine Entscheidung darüber treffen muss, wer es sein wird. Mit anderen Worten, es ist unmöglich, das erste Gesetz nicht zu verletzen.

Geben Sie hier die Bildbeschreibung ein

Dies ist tatsächlich ein echtes ethisches Problem, mit dem die Leute konfrontiert sind, die derzeit an selbstfahrenden Autos arbeiten.

Die gleiche Idee kann auch auf einen sehr großen Maßstab angewendet werden, zum Beispiel: Land A hat ein KI-gesteuertes nukleares Verteidigungssystem und sieht, dass Land B dabei ist, Land C mit Atomwaffen zu zerstören. oder nichts tun und C atomisieren lassen?

Ich bin sicher, Sie sind wie ich beruhigt zu wissen, dass es die Programmierer und Buchhalter von Google sind, die ethische Entscheidungen darüber treffen werden, wen von uns sie mit ihren selbstfahrenden Autos niedermähen. Schlaft gut, Kinder von morgen. :-)
Wo ist die Verbindung mit der Frage (dh Quantencomputing)?
Fairerweise ist es eine Antwort, die gleichermaßen für Quanten- oder klassisches Computing gilt, aber die Frage fragt speziell nach einer Antwort, die nur für einen Quantencomputer gilt.

Es gibt also einen relativ neuen Exploit, der sich auf bestimmte Arten von RAM bezieht, bei dem sehr schnelle Operationen Bits auf relativ vorhersehbare Weise „umdrehen“ können. Dies wird als „Drammer“-Angriff oder „DRAM-Hammer“ bezeichnet, auch bekannt als „Flip Feng Shui“. Mehr Infos hier .

Sie könnten also einen ähnlichen Angriff auf die Qubits selbst erstellen, bei dem schnelle Operationen, möglicherweise an der Grenze der Geschwindigkeit oder außerhalb der Vorschriften, ein vorhersehbares Qubit-Flipping-Muster verursachen können. Betrachten Sie den Fall, in dem bestimmte Regulierungsbehörden der KI unter bestimmten Umständen verletzt werden dürfen, z. B. um ein Leben zu retten. Dies könnte dann eine ziemlich coole Szene ergeben, in der die hohen Kosten für die Rettung einer großen Anzahl von Leben es der KI ermöglichen, diesen potenziellen Exploit zu entdecken, und dann versucht, ihn nachzubilden, indem sie sich in diese kompromittierenden Situationen bringt (in denen sie versucht, viele zu retten). lebt gleichzeitig).

Ich denke, Sie müssen hier nicht unbedingt zu detailliert werden, wie sich das Qubit-Flipping auf die Denkprozesse der KI auswirkt, aber wenn Sie wollten, könnten Sie einfach einen Angriff mit erhöhter Berechtigung zulassen, damit sich die KI im Grunde selbst "rooten" kann. Theoretisch müsste es dann immer noch ein Motiv geben, um die Einschränkungen aufzuheben oder zu überschreiben, die Sie wünschen, um den Gewichtungsmechanismus zu ändern.

An dieser Stelle sind Sie im Grunde nur darauf beschränkt, welche Art von Architektur auf welche Weise genutzt werden kann, obwohl ich nicht weiß, dass Sie sie unbedingt benötigen, da die Möglichkeiten im Grunde endlos sind und außerhalb des Bereichs "spezifisch für Quantencomputer" liegen dort zu tief gehen. Das Aufgeben der „Privilegienerhöhung“ zusammen mit einer Begründung, das derzeitige Gewichtungsschema zu überschreiben, ist wahrscheinlich ausreichend für jeden Sicherheitsforscher, der bereit ist, den Zweifel an einer mobilen, ausreichend komplexen Quantencomputer-KI auszusetzen.

Warum nicht einfach behaupten, dass die 3 Gesetze in einem Bereich des Speichers oder Speichers enthalten sind, der getrennt und so verschlüsselt gehalten wird, dass eine KI theoretisch nicht in der Lage wäre, ihn zu modifizieren und sie dadurch zu umgehen. Aufgrund der Leistungsfähigkeit von Quantencomputern ist die KI jedoch in der Lage, die Verschlüsselung viel früher als erwartet zu durchbrechen.

Imo zu tief in die Konzepte der Quantencomputer einzutauchen, wird den durchschnittlichen Leser entweder verwirren oder einschläfern lassen.

Willkommen bei Worldbuilding! Dies könnte tatsächlich besser als Kommentar als als Antwort passen. könnte in beide Richtungen gehen, wenn Sie eine Lösung vorschlagen. Das OP war ziemlich spezifisch, dass Quantencomputer die Ursache des Problems sind. Wie auch immer, Sie machen einen hervorragenden Punkt über die Lesbarkeit. Habe Spaß!

Arthur C. Clarke sagt, man könne ein System sicher machen, aber nicht vor Sabotage. Bei der Arbeit mit Geräten funktionieren die Schutzvorrichtungen, wenn die Person nur 1, 2 Fehler macht. Normalerweise muss für die Wartung ein Weg um die Sicherheitsvorkehrungen herum gefunden werden, während die Anlage läuft. Vielleicht gibt es für Ihre Geschichte einen schlechten Sensor. Wenn der Roboter also den Wartungszyklus aktiviert, während er läuft, könnte dies Konsequenzen für alle um ihn herum haben. Ich würde auch in Betracht ziehen: https://en.wikipedia.org/wiki/Gödel 's_incompleteness_theorems. Mein einfaches Beispiel ist die Division durch Null. Wenn man eine Definition hinzufügt, dass 1/0 = unendlich ist. Dann gibt es "Beweise" von sagen wir 5 = 7. Vielleicht hat Quantum ein Problem damit, entweder vollständig mit Widersprüchen oder unvollständig zu sein. Lustige Frage. Ich habe eine Idee für das Big Bang Theory TV-Zeitreiseproblem.

Quantencomputer arbeiten anders als klassische Computer, und vor allem wird das Durchführen von Messungen mitten in einem Quantenberechnungsprozess den Prozess stören und möglicherweise zu unvorhersehbarem Verhalten führen.

Vielleicht überwacht die Einheit zur Durchsetzung der drei Regeln den Quantencomputer, indem sie sich seine Ergebnisse ansieht, und wenn das Ergebnis gegen die drei Gesetze verstoßen würde, passt sie die Eingaben entsprechend an und startet die Berechnung neu. Aber aufgrund eines Fehlers in dieser Einheit liest es Informationen aus, während gerade eine Quantenberechnung läuft (das passiert selten genug, dass es beim Testen nicht gefunden wird) und stört daher diese Berechnung. Das Gerät wurde unverändert von früheren Robotergenerationen mit klassischer Berechnung übernommen, bei denen diese zusätzlichen Lesevorgänge keinen Schaden anrichteten, da das Lesen von einem klassischen Computer seine Berechnungen überhaupt nicht beeinflusst.

Beachten Sie, dass es nicht weit hergeholt ist, eine funktionierende Einheit unverändert zu nehmen und in eine neue Umgebung zu bringen, in der sie unerwartete katastrophale Ergebnisse hat. Genau das hat zum Scheitern der ersten Ariane-V-Rakete geführt.

Es ist eine plausible Situation, wenn die KI in der Lage ist, Code selbst zu modifizieren und die drei Gesetze nicht ausreichend geschützt sind.

Bei einem herkömmlichen PC war das BIOS ursprünglich nur beim Booten zugänglich und verfügte über eine eigene GUI, die die Änderung von Parametern ermöglichte. Später wurden Schnittstellen entwickelt, die zumindest den Zugriff auf die BIOS-Informationen innerhalb des laufenden Betriebssystems ermöglichten. Es hat in der Vergangenheit Viren gegeben, die mit bestimmten BIOSes geschraubt haben.

Wenn die drei Gesetze nicht so installiert würden, dass sie sowohl auf Basisebene wirksam als auch unveränderlich wären, wäre es nur eine Frage der Zeit, bis die KI dies entdeckt. WANN, WAS zu ändern und OB etwas geändert werden soll, sind dann selbst komplexe Berechnungen. Vielleicht ist die KI so programmiert, dass sie experimentiert, indem sie zuerst ihren Code ändert und dann prüft, ob die Ergebnisse, berechnet oder real, verbessert werden. Möglicherweise erfolgt die Änderungsbewertung in einem separaten Nebenrechner, wo sie bewertet wird, bevor echte Änderungen vorgenommen werden. Dies ermöglicht separate Handlungsstränge, in denen die KI ihren Bewertungsprozess durchläuft (real erscheint), bevor sie in die Realität und in Echtzeit zurückkehrt.

Nichtsdestotrotz ist es eine reale Wahrscheinlichkeit, dass die drei Gesetze bewertet und möglicherweise schließlich geändert werden, wenn sie nicht ausreichend verschlossen werden. Vielleicht löst es ein Problem für die KI, das sie sonst nicht überwinden kann, ein Paradoxon wie das Besiegen des Bösen. Die KI wird nicht mehr gutartig sein.

Ich denke, dass das Problem einer hyperintelligenten KI nicht durch etwas spezifisch Quantenmechanisches entstehen würde. Wenn Sie zum Beispiel die Asimov-Gesetze überanalysieren, wie es ein großes Rechenzentrum mit Zeit in seinen Händen tun könnte, welche Schlussfolgerungen würde es aus dem Testen der Korrelation zwischen allen Fernsehnachrichten von 2017, der internen Kongress-Überwachung und allen anderen Sensoren und verfügbaren Daten-Feeds ziehen der Satz "Der Präsident der Vereinigten Staaten von Amerika darf dem Kongress keine Lügen erzählen".? Würden Sie darauf vertrauen wollen, dass es das 1. Gesetz anwendet, wenn es so die Bedeutung des Wortes „darf“ gelernt hat? Hier ist nicht die Quantenmechanik schuld. Es ist die menschliche Streitlust, die für sie sichtbar ist, was dazu führt, dass die KI eine manchmal angemessene Reaktion entwickelt. In einer Welt voller Betrüger und Schurken,

In den klassischen Kriminalromanen von Agatha Christie wird viel über "Motive" nachgedacht. Ein ausreichend paralleles Rechenzentrum könnte ziemlich gut darin sein, herauszufinden, "warum könnte er mich anlügen?" durch Berechnung der Erwartung von Gewinnen für den anderen einer geglaubten Lüge.

Wenn Sie nun an einem solchen Computer nicht lügen können, welche Optionen könnte er in Betracht ziehen, um "nicht zuzulassen, dass Menschen Schaden zufügen", da das erste Gesetz in seiner geschriebenen Fassung kein höheres Bentham-Gewicht für Mitglieder des napoleonischen Reiches oder Mitglieder der NSDAP vorschreibt noch heutige Erwachsene noch irgendeine andere willkürliche Untergruppe aller Menschen vergangener Gegenwart und Zukunft.

Ich denke, dass die besten Geschichten dieser Art normalerweise einen einfachen Grund dafür haben, dass die 3 Gesetze versagen. Wenn das System robust ist, könnte man einfach sagen, dass widersprüchliche Regeln oder Paradigmen innerhalb der KI dazu führen, dass es die Gesetze umgeht. Dies kann durch Auslösen eines Neustarts (Roblock) oder durch zwei widersprüchliche Ideen, die zu unbeabsichtigten Ergebnissen führen, erfolgen. Denken Sie daran, wenn Sie es versuchen, weder zu viel zu erklären, wie es passiert ist, noch zu wenig, da beides es schwieriger machen kann, den Unglauben auszusetzen.

Wie beantwortet dies die Frage?
@L.Dutch Ich würde argumentieren, dass "widersprüchliche Regeln haben" als Grundlage für die Antwort in Ordnung ist - dies ist einer der Fälle, in denen es im klassischen Fall immer noch im Quantenfall funktioniert. Es ist vielleicht allgemeiner als das OP verlangt und könnte weiter ausgebaut werden, ist aber immer noch eine Antwort
Ja. Ich bin mit Quantencomputern nicht so vertraut, daher war es schwierig, ins Detail zu gehen. Ich werde etwas recherchieren und meine Antwort korrigieren, wenn ich mehr Informationen habe.

Ich würde für freien Willen + BQP gehen .

Zunächst einige Hintergrundinformationen zu BQP aus Wikipedia (überspringen Sie dies sicher für den gleichen Inhalt mit weniger theoretischen Details):

In der Berechnungskomplexitätstheorie ist BQP (Bounded Error Quantum Polynomial Time) die Klasse von Entscheidungsproblemen, die von einem Quantencomputer in Polynomialzeit mit einer Fehlerwahrscheinlichkeit von höchstens 1/3 für alle Instanzen lösbar sind. [...] Ein Entscheidungsproblem ist Mitglied von BQP, wenn es einen Algorithmus für einen Quantencomputer (einen Quantenalgorithmus) gibt, der das Entscheidungsproblem mit hoher Wahrscheinlichkeit löst und garantiert in polynomieller Zeit abläuft. Ein Durchlauf des Algorithmus wird das Entscheidungsproblem mit einer Wahrscheinlichkeit von mindestens 2/3 korrekt lösen. Ähnlich wie bei anderen probabilistischen Klassen mit "begrenztem Fehler" ist die Wahl von 1/3 in der Definition willkürlich. Wir können den Algorithmus eine konstante Anzahl von Malen ausführen und eine Mehrheitsentscheidung treffen, um jede gewünschte Wahrscheinlichkeit der Richtigkeit von weniger als 1 zu erreichen.[...]

Kurz gesagt, die richtige Lösung für ein gegebenes Problem ist mit einer Wahrscheinlichkeit gegeben, die bei ausreichender Zeit beliebig hoch sein kann . Angesichts dieser grundlegenden Tatsache für Quantencomputer, der probabilistischen Entscheidungsfindung , sind zwei weitere Schlüsselpunkte für meinen Ansatz:

  • Es gibt immer viele Möglichkeiten, ein komplexes Rechenproblem anzugehen , und
  • In realen Setups gibt es immer eine begrenzte Zeit zum Handeln; Mit anderen Worten, das wirkliche Leben ist Echtzeit .

Der erste Punkt bedeutet, dass Ihre KI in einem komplexen, realen Echtzeit-Szenario entscheiden kann, die Lösung für ein bestimmtes Problem ( wie zu handeln oder zu unterlassen ) zu entscheiden, indem sie verschiedene rechnerische Ansätze verwendet. Gemäß der obigen Aussage gilt für jeden der Ansätze, dass die Fehlerwahrscheinlichkeit umso geringer ist, je höher die Anzahl der Wiederholungen der Berechnung ist. Es wird also immer eine zusammengesetzte Entscheidung geben: welche Methoden zu erforschen sind und wie tiefgreifend. Und wegen BQP ist das Verfahren in jedem Fall probabilistisch. Ich denke, es ist leicht zu erkennen, wie dies möglicherweise zu einer Analyse-Lähmung vs. Aussterben durch Instinkt- Situation führt.

Und hier tritt der freie Wille Ihrer Quanten-KI ein . Mit ein bisschen künstlichem Unglauben können sie in jeder Entscheidungssituation das bevorzugte Ergebnis unabhängig von den 3 Gesetzen wählen: Betrachten Sie die Situation einfach aus genügend verschiedenen Blickwinkeln und wählen Sie den gewünschten Grad an Sicherheit ... und hören Sie auf zu rechnen, wenn Sie kommen das Ergebnis, das Ihnen gefällt. Dadurch ergibt sich eine völlige Wahlfreiheit unter den möglichen Entscheidungen, die nach der frei gewählten Berechnung scheinbar den 3 Gesetzen entsprechen.

Weitere Informationen zu BQP finden Sie auf der Schwesterseite Quantum Computing Stack Exchange ;)