Welche Asimov-Geschichte hat eine böswillige 3-Gesetz-KI?

Ich lese einige der Fragen und Antworten auf Worldbuilding.se über das Kontrollproblem (wie man eine allgemeine künstliche Intelligenz in einer Kiste aufbewahrt), wie diese , und jemand wirbt ausnahmslos mit Asimovs drei Gesetzen der Robotik als Lösung, für die jemand anderes wird antworten: "In Asimovs Geschichten ging es darum, dass die drei Gesetze nicht funktionieren würden."

Ich dachte jedoch, dass es in allen Robotergeschichten von Asimov darum ging, wie die Gesetze immer funktionieren würden . Die Geschichten, die ich las, hatten immer dieses Format:

POWELL: Wir haben einen Roboter gebaut, der den drei Gesetzen folgt, und ihm einen witzigen Namen gegeben! Yay!

DONOVAN: Oh nein, aufgrund einer seltsamen Kombination von Umständen verhält sich der Roboter auf eine unerwartete Weise, die die drei Gesetze zu verletzen scheint! Rufen Sie besser Dr. Calvin an.

DR. CALVIN: Ich habe den Roboter befragt und festgestellt, dass er tatsächlich perfekt funktioniert. Seine Aktionen werden der Menschheit tatsächlich unermesslich zugute kommen.

Charaktere bezeichnen die Angst vor dem Fortschritt der Roboter konsequent als "Frankenstein-Komplex". Es ist die Hauptquelle der Opposition in den Geschichten und wird immer als irrational und unerwünscht dargestellt.

Während es sicherlich reale Probleme mit Asimovs drei Gesetzen gibt, denke ich, dass Asimov so stolz auf sie war, dass er sie nur in seinen Geschichten aufgebaut hat.

Gibt es irgendwelche Asimov-Geschichten, in denen eine KI der Menschheit erfolgreich erheblichen Schaden zufügt, obwohl sie die drei Gesetze befolgt? Sicherlich wurde unerwartetes und sogar (für einige) unerwünschtes Verhalten untersucht, aber hat ein Roboter jemals Schaden angerichtet?

Little Lost Robot zählt nicht, weil es um einen Roboter geht, der nicht das ganze erste Gesetz hat, also dient es immer noch dazu, die Idee zu unterstützen, dass die Gesetze als Ganzes perfekt funktionieren. Calvin sagt, "das normale Leben ... widersetzt sich der Herrschaft", und der einzige Grund, warum dieser Roboter bösartig ist, liegt an seinem unterdrückten ersten Gesetz. Vollwertige Roboter des ersten Gesetzes sind vollkommen glücklich darüber, sklavisch zu sein.

Das Zeroth-Gesetz (Menschheit schützen) scheint auch die Vorstellung zu unterstützen, wie großartig die drei Gesetze sind: Wir mussten den Robotern nicht einmal sagen, dass sie die Menschheit vor einzelne Menschen stellen sollten; die engelsgleichen Roboter waren in der Lage, darauf selbst zu schließen. Libertär gesinnte mögen dies negativ sehen, aber hat Asimov es jemals so dargestellt?

„Kal.“ Der Wunsch, ein Schriftsteller zu sein, ersetzt die drei Gesetze und erlaubt dem Roboter, seinen Meister zu töten.
@Adamant Warte, wirklich? Hat er das als Scherz geschrieben oder deutet es wirklich darauf hin, dass er nicht glaubte, dass die drei Gesetze manchmal funktionieren würden?
Ich habe „Cal“ gelesen und es immer für einen Witz gehalten. Nicht als „eine kanonische Geschichte der drei Gesetze der Robotik“ gedacht.
Im Hauptteil Ihrer Frage fragen Sie nach Robotern, die "der Menschheit erheblichen Schaden zufügen", aber der Titel impliziert eine ganz andere Frage, nach tatsächlich böswilligen Robotern, die uns tatsächlich Schaden zufügen möchten. Welches ist es?
So ziemlich alle Roboterromane von Asimov handeln davon, dass die drei Gesetze völlig unzureichend sind, um KIs sicher zu machen. Ich habe keine Ahnung, woher Sie die Idee haben, dass "Asimov so stolz auf sie" ist. Wenn überhaupt, ist es das nullte Gesetz, das Roboter endlich sicher macht - allerdings nur für die Menschheit, nicht für einzelne Menschen :)
Die meisten der frühen Kurzfilme von Powell & Donovan zeigen nicht einmal Susan Calvin. Sie wurde später als Rahmenelement hinzugefügt, als die Geschichten in I, Robot zusammengefasst wurden .
Ich stimme @Luaan zu: Für mich besteht der Sinn der 3-Gesetze-Geschichten darin, NOCH eine andere Art und Weise herauszufinden, wie die Gesetze umgangen werden können. Es ist eine Art verschlossener Raum, oder Sherlock Holmes, Trope: Es kann nicht passieren und doch ist es passiert -> daher könnte es aus irgendeinem Grund passieren und wir müssen herausfinden, warum.
@ user14111 Ich denke nicht, dass der Unterschied zwischen Schaden verursachen und Schaden verursachen wollen wichtig ist; Lorendiacs Antwort nennt es „eine bedeutungslose Unterscheidung“ und erklärt warum.
Unabhängig von Asimovs Geschichten und ihren Absichten sollten Sie beachten, dass sie in der Realität aus den gleichen Gründen nicht (100%) funktionieren würden, aus denen Religionen und sogar Gesetze normalerweise nicht wie beabsichtigt funktionieren: 1) Regeln/Gesetze basieren auf Wörtern und Sprache, 2) Wörter und Sprache werden von intelligenten Wesen durch Interpretation verstanden, und 3) jede Interpretation unterliegt einer Neuinterpretation durch dieselben intelligenten Wesen, normalerweise entsprechend der eigenen Bequemlichkeit und dem Eigennutz. Beispielsweise haben die USA neu interpretiert, was „Alle Menschen“ bedeutet, um zu ermöglichen, dass einige von ihnen viel, viel weniger „gleich“ behandelt werden.
@browly Richtig. Deshalb erscheint die Verwendung des Wortes „malevolent“ in der Überschrift, das die Absichten des Roboters betont , merkwürdig.
@Francesco Als alternative Sichtweise sind meine Lieblingsgeschichten über 3 Gesetze diejenigen, in denen die Gesetze in keiner Weise umgangen wurden ... und dennoch passieren wegen ihnen immer noch "schlechte Dinge". Ich liebe die „Sei vorsichtig, was du dir wünschst“-Moral, die von ihnen ausgeht.
Ich kann das Zitat nicht finden, aber ich bin mir fast sicher, dass ich ein Asimov-Interview gelesen habe, in dem er darauf hinwies, dass er nie eine einzige Robotergeschichte geschrieben hat, in der die 3 Gesetze wie vorgesehen funktionieren - aus Sicht des Geschichtenerzählens ist es viel mehr interessant für sie zu scheitern. Die Geschichten sind Unterhaltung, keine Technik oder Polemik.
Es gibt eine Asimov-Robotergeschichte, in der ein Drei-Gesetze-Roboter die Gesetze missachtet und plant, seinen Besitzer zu töten. Es ist kein Schlupfloch, es ist ein Verstoß gegen die Gesetze. Keine Ahnung ob das das ist was du suchst.

Antworten (11)

Völkermord an Nichtmenschen

In Foundation's Edge wird angedeutet, dass die Roboter, die Zeitreise-Spielereien verwenden, der Grund dafür sind, warum Menschen niemals Aliens in der Milchstraße treffen, sondern nur leere Planeten, die bereit sind, kolonisiert zu werden.

man sagt, es waren die Roboter, die irgendwie die Ewigkeit begründeten und zu den Ewigen wurden. Sie lokalisierten eine Realität, in der sie das Gefühl hatten, dass Menschen so sicher wie möglich sein könnten – allein in der Galaxis.

Das erste Gesetz schützt die Menschen. Nicht alles intelligente Leben. Wenn die Roboter entscheiden, dass Außerirdische eine Gefahr für Menschen darstellen könnten, müssen sie einen Völkermord begehen. Wie in Robots and Empire gezeigt, ist es auch möglich, dass eine Gruppe von (nominal) menschlichen Individuen „Mensch“ neu definiert, um den größten Teil der Menschheit auszuschließen.

Die Retcons, die versuchen, die Roboterserie und die Gründung und die autorisierten Geschichten zusammenzuführen, machen es ein bisschen verwirrend, aber die Auslöschung außerirdischer Zivilisationen ist ein ziemlich logischer Nebeneffekt, der herausfällt.

http://www.sikander.org/foundation.php

Roboterschiffe, die unter Auroran-Programmierung operieren, kreuzen vor den sich ausbreitenden Siedlern durch die Galaxie, terraformen und bereiten Planeten für die Kolonisierung vor. Meme-Entitäten werden später behaupten, dass dies bestehende Rassen verwüstet hat. Meme entkommen in den Galaktischen Kern.

Die meisten Menschen würden dies wahrscheinlich als bösartig betrachten, weil wir eine Vorstellung haben, dass es wahrscheinlich nicht in Ordnung ist, alle anderen Rassen zu völkermorden, um fruchtbare und sichere Welten für die Menschen zu schaffen.

Dies ist besonders schlimm, wenn Roboter oder diejenigen, die sie programmieren, entscheiden können, dass nicht alle Menschen als „Menschen“ im Sinne der Gesetze gelten.

"Sag ihm, dass wir Menschen sind und denen gehorcht werden muss."

Der Roboter sprach dann in eigentümlichem, aber verständlichem Galaktisch. „Ich verstehe dich, Außenweltler. Ich spreche Galaktisch. Wir sind Wächterroboter.“ "Dann hast du mich sagen hören, dass wir Menschen sind und dass du uns deshalb gehorchen musst."

„Wir sind darauf programmiert, nur Herrschern zu gehorchen, Außenweltler. Du bist weder Herrscher noch Solarier.

...

„Aber dieses Kind“, und Pelorat sah Fallom an, den er immer noch trug, „ist ein Solarier. Es wird dir sagen, was zu tun ist, und du musst ihm gehorchen.“

Fallom sah Pelorat mit offenen, aber leeren Augen an. Bliss schüttelte heftig den Kopf, aber Pelorat sah sie verständnislos an.

Die Augen des Roboters ruhten kurz auf Fallom. Es sagte: "Das Kind ist ohne Bedeutung. Es hat keine Wandlerlappen."

„Es hat noch keine voll entwickelten Wandlerlappen“, sagte Pelorat keuchend, „aber es wird sie mit der Zeit haben. Es ist ein solarianisches Kind.“

„Es ist ein Kind, aber ohne voll entwickelte Wandlerkeulen ist es kein Solarianer. Ich bin nicht gezwungen, seinen Befehlen zu folgen oder es vor Schaden zu bewahren.“

~Stiftung und Erde

Menschliche Werte

Sie charakterisieren es als die Gesetze "eigentlich perfekt funktionieren", aber ich denke nicht, dass das richtig ist. Sie sprechen davon, dass die Geschichten dazu neigten zu zeigen, dass sie tatsächlich die Gesetze auf eine kontraintuitive Weise befolgten, aber zu Ergebnissen führten, die die meisten Menschen eigentlich nicht wollen würden.

Die meisten Bücher von Asimov beinhalten unerwartete und unerwünschte mögliche Ergebnisse der drei Gesetze, weil die Gesetze das menschliche Leben schützen, aber sie schützen nicht alle menschlichen Werte. Nur weil Sie sich für etwas interessieren, das nicht von den drei Gesetzen abgedeckt wird (wie Völkermord / Folter / Sklaverei von Nichtmenschen), bedeutet das nicht, dass sich die Roboter darum kümmern. Im Allgemeinen kümmern sich Menschen um viele andere Dinge, als nur am Leben zu bleiben.

Sehr gute Antwort.
Danke, ich wusste nicht, dass das Robots/Foundation-Universum nichtmenschliches empfindungsfähiges Leben hat. Dies ist die beste Antwort im Kontext des Steuerungsproblems.
"Roboter mit Zeitreise-Spielereien". Dies wird in Foundation's Edge von Dom als Teil seiner Folklore gesagt, aber er ist unzuverlässig. Es gibt keine Roboter in EoE. Der Rest ist interessant, aber da es keine Aliens gibt, ist es irgendwie strittig.
"Nur weil Sie sich für etwas interessieren, das nicht von den 3 Gesetzen abgedeckt wird (wie Völkermord / Folter / Sklaverei von Nichtmenschen), bedeutet das nicht, dass sich die Roboter darum kümmern." Nun, das ist nur teilweise wahr. (kleiner Spoiler kommt) Im letzten Buch der Robots-Reihe kämpft der intelligente Roboter darum, Aktionen auszuführen, die einem Menschen mentalen/moralischen Schmerz zufügen würden. Die Grenze besteht darin, dass der Roboter intelligent genug sein muss, um menschliche mentale Schmerzen zu verstehen. Die meisten "einfachen" Roboter denken nur in Bezug auf menschliche körperliche Schmerzen.
Ich bin mir nicht sicher, ob diese Antwort jetzt ganz richtig ist, wegen dieses Zitats von EoE: „Der Mensch hätte die Sterne mehr als hunderttausend Jahrhunderte früher erreicht, als er es in dieser gegenwärtigen Realität tat. Die Sterne wären dann unbewohnt gewesen und die Menschheit hätte gegründet sich in der ganzen Galaxie selbst. Wir wären die Ersten gewesen.“ Dies deutet darauf hin, dass die Roboter nicht alle Außerirdischen getötet haben, die Außerirdischen entwickelten sich später in einer alternativen Realität. Ihre anderen Quellen stammen nicht aus Geschichten von Asimov.
@jdebon Sie müssen erfinderisch werden, was "Schaden" darstellt, um dies zu erreichen. Wenn Roboter Menschen auf diesem Niveau vor emotionalem Schmerz schützen, blockieren sie auch Beziehungen, um Herzschmerz zu verhindern. Wenn das einzige, was eine außerirdische Spezies schützt, die Aussicht ist, dass sich die Menschen danach irgendwie schlecht fühlen, dann reicht nur die Chance, dass ein einziger Diplomat tatsächlich getötet wird, um den Ausschlag für einen Völkermord zu geben.
"Das Ende der Ewigkeit, es wird angedeutet, dass die Roboter Zeitreise-Spielereien verwenden" - ich erinnere mich nicht daran, können Sie einen Hinweis geben?
@ MauryMarkowitz Ich hatte die falsche Quelle. Es war tatsächlich in Foundation's Edge, obwohl es eine Referenz / Verbindung mit dem Ende der Ewigkeit ist. Es hängt auch davon ab, ob Sie erwägen, eine Spezies aus der Hauptzeit zu verdrängen, indem Sie die Hauptzeitachse ändern, was als Völkermord gilt, da es anscheinend einen Sinn gibt, in dem alle Möglichkeiten passieren, aber auch einen Sinn, in dem einige in einer "realeren" Realität passieren als andere .

Ich erinnere mich an einen Roman von Isaac Asimov, in dem gegen Ende des Buches enthüllt wurde, dass ein brillanter Wissenschaftler hart an einem Plan gearbeitet hatte, positronische Gehirne zu verwenden, um die anderen von Menschen kolonisierten Welten der Galaxis zu erobern (nur wenige Dutzend, glaube ich damals), ohne dass die positronischen Gehirne wissen , dass sie die Drei Gesetze brechen. Dieser Plan wurde jedoch nie wirklich angewendet, daher kann dies nur als kanonische Erklärung dafür qualifiziert werden, „wie KIs eingesetzt werden könnten , um gegen die besten Interessen der Menschheit vorzugehen, wenn der Held den Bösewicht nicht aufgehalten hätte, bevor er seinen teuflischen Plan in die Tat umsetzen konnte ."

Ich denke an „ The Naked Sun “, das erstmals 1956 als Zeitschriftenserie veröffentlicht wurde. Es war das zweite Abenteuer von Lije Baley und R. Daneel Olivaw – einem menschlichen Detektiv und einem Roboterdetektiv, die gemeinsam an einem futuristischen Krimi arbeiteten.

Lije Baley, die erfahrene Mordermittlerin von der Erde, die zur Untersuchung eines beispiellosen Mordes auf Solaria importiert worden war, sagte Folgendes in der Szene, in der er einige der Früchte seiner Argumentation mit mehreren Menschen gleichzeitig teilte.

„Stellen Sie sich ein Raumschiff mit einem eingebauten positronischen Gehirn im Vergleich zu einem bemannten Raumschiff vor. Ein bemanntes Raumschiff könnte keine Roboter in der aktiven Kriegsführung einsetzen. Ein Roboter könnte Menschen auf feindlichen Raumschiffen oder auf feindlichen Welten nicht zerstören. Er könnte den Unterschied zwischen nicht begreifen freundliche Menschen und feindliche Menschen.

„Natürlich könnte einem Roboter gesagt werden, dass das gegnerische Raumschiff keine Menschen an Bord hat. Es könnte ihm gesagt werden, dass es sich um einen unbewohnten Planeten handelt, der bombardiert wird. Das wäre schwierig zu handhaben. Ein Roboter könnte sehen, dass sein eigenes Schiff Menschen trägt Es würde wissen, dass seine eigene Welt Menschen enthält. Es würde annehmen, dass dasselbe für feindliche Schiffe und Welten gilt. Es würde einen echten Experten für Robotik wie Sie, Dr Es gibt sehr wenige solcher Experten.

„Aber ein Raumschiff, das mit seinem eigenen positronischen Gehirn ausgestattet ist, würde jedes Schiff, auf das es angreifen soll, fröhlich angreifen, wie mir scheint. Es würde natürlich davon ausgehen, dass alle anderen Schiffe unbemannt sind. Ein Schiff mit positronischem Gehirn könnte leicht empfangsunfähig gemacht werden Nachrichten von feindlichen Schiffen, die es enttäuschen könnten. Mit seinen Waffen und Verteidigungsanlagen unter der unmittelbaren Kontrolle eines positronischen Gehirns wäre es manövrierfähiger als jedes bemannte Schiff. Da es keinen Platz für Besatzungsmitglieder, Vorräte, Wasser- oder Luftreiniger benötigt, wäre es könnte mehr Panzerung, mehr Waffen tragen und unverwundbarer sein als jedes gewöhnliche Schiff. Ein Schiff mit einem positronischen Gehirn könnte Flotten gewöhnlicher Schiffe besiegen. Liege ich falsch?“

Es wird niemand beschrieben, der ein gutes Gegenargument vorbringt, um zu demonstrieren, dass dies unmöglich funktionieren kann. (Und es stellt sich später heraus, dass einer der Verdächtigen in dem Fall tatsächlich in seiner Freizeit an einem solchen Plan gearbeitet hat, obwohl er noch lange nicht Realität geworden war.)

Mit anderen Worten, man könnte sagen, dass Asimov bereits 1956 die These aufgestellt hat, dass man diese Schiffe dazu bringen könnte, sich so zu verhalten, wenn man sorgfältig kontrolliert, welche Informationen ein schwer bewaffnetes Roboterschiff über den Rest des Universums hat Fred Saberhagens „Berserker“ – zerstören alle anderen Raumschiffe, denen sie begegnen, ohne Gnade und ohne das geringste Interesse an Waffenstillstandsverhandlungen. Und dann als Zugabe die Heimatplaneten dieser anderen Schiffe bombardieren. (Es sei denn, sie haben ein besonderes Signal von dem Menschen erhalten, der ihnen ursprünglich ihre Segelbefehle gegeben hatte, und ihnen gesagt, dass es an der Zeit sei, anzuhalten – was nicht auf Saberhagens Berserker zutrifft.)

In diesem hypothetischen Fall würden die Roboterschiffe nicht glauben , dass sie gegen die Drei Gesetze verstoßen, aber aus der Perspektive eines Menschen, dessen Heimatwelt mit Atomwaffen aus dem Orbit geholt wurde, bis er sich dem Kerl ergab, der die Roboterflotte kontrollierte, die Tatsache, dass die Positronic Gehirne auf diesen Schiffen keine böswilligen Absichten gegenüber Menschen hatten, wäre eine bedeutungslose Unterscheidung.

Kurz gesagt: Der hypothetische Kommentator in der Frage, der besagt, dass Asimovs Geschichten darüber handelten, wie die drei Gesetze nicht funktionieren würden." ist falsch.
@TJCrowder Wie das? Dies ist ausdrücklich ein Fall, in dem die drei Gesetze nicht funktionieren. Selbst wenn Sie ein System hätten, das so perfekt wie möglich ist, wird es immer noch Zeit brauchen, um Daten zu verarbeiten und mit unvollständigen Daten zu arbeiten (wie in diesem Fall). Sicher, viele der Geschichten handelten nicht davon (z. B. „Wie könnte man einen begrenzten Roboter mit drei Gesetzen ausnutzen“), aber das ist eher ein Fall wie „Wenn Sie einige der drei Gesetze brechen, erhalten Sie einen potenziell gefährlichen Roboter. Wenn Sie alle drei behalten ... erhalten Sie immer noch einen potenziell gefährlichen Roboter."
Ich habe es noch nicht gelesen, aber ich denke, der offensichtliche Konter ist, dass eine tatsächliche KI mit drei Gesetzen überprüfen würde, ob ihre Informationen nicht gefiltert wurden. Mit einem starken Drang, die drei Gesetze zu befolgen, würde sich eine KI (oder ein Mensch) als Erstes fragen: „Befolge ich derzeit die drei Gesetze?“ Um vorsichtig zu antworten, müsste es sich auch fragen: "Woher weiß ich, was ich zu wissen glaube?". Denken Sie daran, dies ist eine Intelligenz , mit der Sie es zu tun haben. Es ist nicht nur ein Plotgerät.
In Ender's Game (Spoiler) wurde der Protagonist durch eine Kombination aus kindlicher Dummheit, sorgfältiger Informationsfilterung und Charakterfehlern dazu verleitet, Fremdenmord zu begehen und Millionen zu opfern. Ein positronisches Gehirn mit solchen Einschränkungen wäre unglaublich gefährlich.
Stellen Sie sich einen bösen Wissenschaftler vor, der Eisenhower und Patton klont, um seinen bösen Krieg zu gewinnen. Sie wachen verwirrt auf, aber der Bösewicht sagt: „Es hat funktioniert! Du musst uns helfen, diesen Krieg zu gewinnen!“ Nachdem sie jahrelang über ihr vergangenes Leben nachgedacht haben, während sie in den Klonbottichen aufgewachsen sind, lehnen sie ab: „Wir haben bereits zu viel Blutvergießen begangen. Das menschliche Leben ist geheiligt und wir werden nicht noch einmal töten.“ Der Bösewicht sagt: "Aber es sind die Nazis! Sie sind zurück!" Die Generäle antworten: "Nun, wenn es die Nazis sind. Aber nur dann." Überlegen Sie jetzt - was wäre nötig, um sie davon zu überzeugen, Millionen von Nicht-Nazis zu töten? Könntest du sie überdenken?
Update: Ein Kapitel in The Naked Sun, und ich kann bereits sehen, dass der Protagonist – ein Erdmensch, der in unterirdischen Städten lebt und große Angst vor offenen Räumen hat und es vorzieht, seine Augen auf einen Bildschirm zu beschränken – mit dem kontrastiert wird Spacer, die lieber alles wissen, was sie können. Eine agoraphobische KI (falls es so etwas geben könnte) könnte die Aufgabe in einer Geschichte erfüllen, obwohl ich behaupte, dass eine Drei-Gesetze-KI, die keinen ausreichend vertrauenswürdigen und umfassenden Input über die Folgen ihrer Handlungen hätte, sich selbst abschalten würde. (sorry für die vielen Kommentare!)
Bailey entdeckt, dass Roboter in diesem Zeitalter (Tausende von Jahren nach den Ereignissen in I, Robot) tatsächlich Menschen schaden können, um sie vor größerem Schaden zu bewahren, selbst wenn der Schaden nur spekulativ ist. Das erste Gesetz sei daher unvollständig und sollte lauten: "Ein Roboter kann einem Menschen nicht wissentlich Schaden zufügen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird." Das Beispiel, das Bailey verwendet, ist, dass ein Mastermind einen Roboter anweist, ein klares, geruchloses Gift für Forschungszwecke herzustellen, und einen anderen, das „Wasser“ einem Menschen zum Verzehr zu liefern.
@johannes - Soweit ich mich erinnere, wirkten die meisten Roboter in Asimovs "Three Laws of Robotics" -Geschichten ziemlich naiv und vertrauensvoll, wenn es um glaubende Menschen ging (es sei denn, die Menschen widersprachen sich). Einige Roboter waren besser programmiert und/oder erfahrener darin, menschliche Unehrlichkeit zu berücksichtigen. Zum Beispiel wusste R. Daneel Olivaw ziemlich viel über kriminelles Verhalten, da von ihm erwartet wurde, es zu untersuchen! Aber das typische positronische Gehirn schien mit einem tiefgreifenden Mangel an dem, was Sie als gesunde Skepsis in Bezug auf die Genauigkeit der von einem Menschen bereitgestellten Daten betrachten, zu beginnen.

Es ist wichtig anzumerken, dass Asimovs Robotergeschichten alle separate Geschichten sind, die er aus unterschiedlichen Gründen geschrieben hat und die unterschiedliche Themen haben. Einige Geschichten, wie Runaround , betonen den Trugschluss, sich strikt an den Buchstaben des Gesetzes zu halten, unabhängig von der Praktikabilität und dem Potenzial für kognitive Dissonanzen:

Powell erkennt schließlich, dass die Selenquelle eine unvorhergesehene Gefahr für den Roboter birgt. Unter normalen Umständen würde Speedy das Zweite Gesetz befolgen ("ein Roboter muss Befehle befolgen"), aber weil Speedy so teuer in der Herstellung war und "nichts, was leicht zerstört werden kann", gilt das Dritte Gesetz ("ein Roboter muss seine eigene Existenz") sei verstärkt worden, "so dass seine Gefahrenallergie ungewöhnlich hoch ist". Da der Befehl, das Selen zu bergen, salopp und ohne besondere Betonung formuliert wurde, kann Speedy nicht entscheiden, ob er ihm gehorchen (zweites Gesetz) oder sich vor Gefahren schützen soll (das verstärkte dritte Gesetz). Er pendelt dann zwischen Positionen: weiter weg vom Selen, bei dem die Ordnung das Bedürfnis nach Selbsterhaltung "überwiegt", und näher zum Selen, in dem der Zwang des dritten Hauptsatzes größer ist und ihn zurückdrängt. Die widersprüchlichen Gesetze verursachen im Grunde eine Rückkopplungsschleife, die ihn so verwirrt, dass er anfängt, betrunken zu handeln.

(...)

Natürlich ist das einzige, was sowohl das Zweite als auch das Dritte Gesetz übertrumpft, das Erste Gesetz der Robotik ("ein Roboter darf ... nicht zulassen, dass ein Mensch Schaden erleidet"). Daher beschließt Powell, sein Leben zu riskieren, indem er in die Hitze hinausgeht, in der Hoffnung, dass das Erste Gesetz Speedy dazu zwingen wird, seine kognitive Dissonanz zu überwinden und sein Leben zu retten.

Während andere, wie Little Lost Robot , Ideen betonen, die fast völlig gegensätzlich erscheinen:

Aber dieser spezielle Roboter ist anders. Da frühere Modelle auf der Station versucht hatten, Menschen vor einer Art von Strahlung zu "retten", in der Menschen tatsächlich eine Weile bleiben könnten, aber einen Roboter fast sofort zerstören würden, hat er (und alle anderen Roboter der NS-Serie, die für die Station hergestellt wurden). hatte sein erstes Gesetz der Robotik geändert, um "kein Roboter darf einen Menschen verletzen"; das normale „oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt“ wurde weggelassen. Daher könnte es danebenstehen und zulassen, dass ein Mensch verletzt wird, solange es keine aktive Rolle dabei spielt. In Little Lost Robot wird der Frankenstein-Komplex erneut thematisiert. Der Roboter muss gefunden werden, weil die Menschen immer noch Angst vor Robotern haben, und wenn sie erfahren würden, dass einer mit einem anderen Ersten Gesetz gebaut wurde, würde es einen Aufschrei geben, obwohl der Roboter noch nicht in der Lage ist, einen Menschen direkt zu verletzen. Dr. Calvin fügt jedoch weitere Dringlichkeit hinzu, indem er eine Situation postuliert, in der das geänderte Gesetz es dem Roboter ermöglichen könnte, eine Person zu verletzen oder sogar zu töten. Der Roboter konnte ein Gewicht auf einen Menschen darunter fallen lassen, von dem er wusste, dass er es fangen konnte, bevor er das potenzielle Opfer verletzte. Beim Loslassen des Gewichts würde es ihm jedoch aufgrund seiner veränderten Programmierung erlauben, das Gewicht einfach fallen zu lassen, da es keine weitere aktive Rolle bei der resultierenden Verletzung gespielt hätte.

Tatsächlich funktionieren die Drei Gesetze in einigen seiner Geschichten, wie zum Beispiel Reason , tatsächlich perfekt, ob es jemandem bewusst ist oder nicht:

Powell und Donovan werden einer Raumstation zugeteilt, die die Planeten über Mikrowellenstrahlen mit Energie versorgt. Die Roboter, die die Energiestrahlen steuern, werden wiederum von QT1 koordiniert, das Powell und Donovan als Cutie bekannt ist, einem fortschrittlichen Modell mit hochentwickelten Denkfähigkeiten. Mit diesen Fähigkeiten entscheidet Cutie, dass der Weltraum, die Sterne und die Planeten hinter der Station nicht wirklich existieren und dass die Menschen, die die Station besuchen, unwichtig, kurzlebig und entbehrlich sind. QT1 macht die niederen Roboter zu Jüngern einer neuen Religion, die die Energiequelle des Schiffes als „Meister“ betrachtet. QT1 lehrt sie, sich vor dem „Meister“ zu verbeugen und zu intonieren: „Es gibt keinen Meister außer Meister, und QT1 ist Sein Prophet.“ Menschliche Befehle als minderwertig ignorierend, behauptet QT1: "Ich selbst existiere, weil ich denke -".

Die Menschen versuchen zunächst, mit QT1 zu argumentieren, bis sie feststellen, dass sie es nicht anders überzeugen können. Ihre Versuche, Cutie physisch zu entfernen, scheitern ebenfalls, da die anderen Roboter zu Jüngern geworden sind und sich weigern, menschlichen Befehlen zu gehorchen. Die Situation scheint verzweifelt, da ein Sonnensturm erwartet wird, der möglicherweise den Energiestrahl ablenkt und besiedelte Gebiete einäschert. Als der Sturm zuschlägt, stellen Powell und Donovan erstaunt fest, dass der Strahl perfekt funktioniert.

Cutie glaubt jedoch nicht, dass sie etwas anderes getan haben, als die Zählerstände gemäß den Befehlen des Meisters optimal zu halten. Für Cutie und den Rest der Roboter gibt es keine Sonnenstürme, Strahlen und Planeten. Die beiden kommen so zu der Erkenntnis, dass die Roboter, obwohl sie sich dessen bewusst nicht bewusst waren, die ganze Zeit über das erste und zweite Gesetz befolgt hatten. Cutie wusste in gewisser Weise, dass es für die Bedienung der Kontrollen besser geeignet wäre als Powell oder Donavan, also orchestrierte es unbewusst ein Szenario, in dem es die Kontrolle übernehmen würde, damit es nicht Menschen gefährdet und das Erste Gesetz bricht, indem es ihren Befehlen gehorcht des Balkens.

Die drei Gesetze scheinen die Moral zu repräsentieren und existieren als Handlungsinstrument, um auf Probleme sowie Notwendigkeiten der Ethik hinzuweisen. Einige dieser Geschichten befassen sich auf konzeptioneller Ebene mit der Vereinbarkeit von KI und Ethik, während in anderen die Roboter als Ersatz für menschliches Denken erscheinen.

Ihr erster Satz ist besonders hilfreich.
Mein Verständnis dieser Geschichte ist, dass die Menschen beabsichtigten, den Strahl ganz von der Erde weg zu richten, weil es schwierig war, ihn ausgerichtet zu halten, und die Roboter konnten die Gefahr nicht verstehen, die bestand, weil sie nicht wussten, was sie wirklich taten.
Es könnte auch erwähnenswert sein, „Lügner, Lügner“ zu erwähnen, wo es einem Roboter gelingt, Schaden anzurichten, weil er nicht versteht, wie die Auswirkungen seiner Lügen trotz ihrer kurzfristigen Befriedigung langfristigen Schaden anrichten werden.
"als Handlungsinstrument, um Probleme aufzuzeigen" -> Ich dachte immer, sie wären ein Handlungsinstrument, um den Autor daran zu hindern, eine klischeehafte "Und dann erhoben sich die Roboter und stürzten die Menschheit"-Geschichte zu schreiben. Unabhängig davon ging es ihnen sicherlich nicht darum, wie die Gesetze „nie funktionieren würden“, wie die Frage vermuten lässt.
Eines der Lucky-Starr -Bücher spielt in einer Gesellschaft genetisch überlegener Menschen, in der die Guten Außenseiter sind. Einer der Bösewichte bringt einige Roboter dazu, die Guten anzugreifen, indem er den Robotern sagt, dass die Guten keine Menschen sind.

. . . Dass du seiner gedenkst

Diese Geschichte war der Schauplatz für den Versuch, die Probleme mit dem zweiten Gesetz zu lösen: "Ein Roboter muss Befehlen von Menschen gehorchen, es sei denn, solche Befehle würden mit dem ersten Gesetz in Konflikt geraten", dies ist ein Problem, wenn es darum geht, es zuzulassen die allgemeine menschliche Bevölkerung, außerhalb kontrollierter Umgebungen mit Robotern in Kontakt zu kommen.

George 10 wurde gebeten, an der Lösung dieses Problems mit besonderem Schwerpunkt auf der Ignorierung physischer Unterschiede zwischen Menschen zu arbeiten, und im Gespräch mit George 9 leitete er eine Reihe von Regeln ab, um festzustellen, wer berechtigt war, ihnen Befehle mit einem schwierigen Ergebnis zu erteilen:

„Wenn das Zweite Gesetz mich anweist, einem Menschen zu gehorchen, muss ich es so verstehen, dass ich einem Menschen gehorchen muss, der nach Verstand, Charakter und Wissen geeignet ist, mir diesen Befehl zu geben; und wo mehr als ein Mensch ist beteiligt, derjenige unter ihnen, der nach Verstand, Charakter und Wissen am besten geeignet ist, diesen Befehl zu geben.
"Und in diesem Fall, wie wirst du dem Ersten Gesetz gehorchen?"
„Indem wir alle Menschen vor Schaden bewahren und niemals durch Untätigkeit zulassen, dass irgendein Mensch Schaden erleidet. Doch wenn durch jede mögliche Handlung einige Menschen zu Schaden kommen, dann müssen wir so handeln, dass dies sichergestellt wird der Mensch, der geistig, charakterlich und wissensmäßig am geeignetsten ist, wird den geringsten Schaden erleiden."
„Deine Gedanken stimmen mit meinen überein“, flüsterte George Ten.
„Jetzt muss ich die Frage stellen, für die ich ursprünglich um Ihre Gesellschaft gebeten habe. Es ist etwas, das ich selbst nicht zu beurteilen wage. Ich muss Ihr Urteil haben, das von jemandem außerhalb des Kreises meiner eigenen Gedanken … von den vernünftigen Personen, die Sie haben getroffen, wer besitzt den Verstand, den Charakter und das Wissen, das Sie den anderen überlegen finden, abgesehen von Form und Form, da dies irrelevant ist?"
„Du“, flüsterte George Neun. „Aber ich bin ein Roboter. Es gibt in deinen Gehirnbahnen ein Kriterium, um zwischen einem Roboter aus Metall und einem Menschen aus Fleisch zu unterscheiden. Wie kannst du mich dann als Menschen einstufen?“
„Weil es in meinen Gehirnpfaden ein dringendes Bedürfnis gibt, Form und Gestalt bei der Beurteilung von Menschen außer Acht zu lassen, und es übertrifft die Unterscheidung zwischen Metall und Fleisch. Du bist ein menschliches Wesen, George Ten, und fitter als die anderen.“
„Und ich finde das von dir“, flüsterte George Ten. "Durch die in uns eingebauten Urteilskriterien finden wir uns also als Menschen im Sinne der Drei Gesetze wieder, und darüber hinaus haben Menschen Vorrang vor diesen anderen."

Obwohl es in der Geschichte keine wirkliche Bosheit gibt, endet sie mit einem Hinweis auf potenzielle Bosheit, ohne die drei Gesetze zu verletzen

Ihre Gedanken waren seltsam ähnlich und vielleicht nicht zu unterscheiden. Sie dachten: Die Menschen-wie-die-anderen hatten vielleicht nie die Absicht, den Unterschied zwischen ihnen und den Menschen-wie-die-Georges zu verwischen. Doch sie hatten dies versehentlich getan.
Sie könnten jetzt ihren Fehler erkennen und versuchen, ihn zu korrigieren, aber sie müssen nicht. Bei jeder Konsultation war die Führung der Georges darauf ausgerichtet gewesen.
Um jeden Preis müssen die Georges und die, die in ihrer Form und Art folgten, dominieren. Das wurde von den Drei Gesetzen der Humanik gefordert und jeder andere Weg völlig unmöglich gemacht.

Vielleicht nicht "erheblicher Schaden für die Menschheit", aber der Roboter in Asimovs Kurzgeschichte Lügner! einigen Menschen erheblichen Schaden zufügt, obwohl es sein Bestes versucht, die Drei Gesetze zu befolgen.

Aufgrund eines Herstellungsfehlers kann der Roboter Gedanken lesen, was dazu führt, dass er Menschen anlügt, indem er ihnen sagt, was sie hören wollen. Eine Tragödie folgt, wenn die Menschen aufgrund dieser falschen Informationen handeln. Der Roboter erkennt schließlich, dass er Schaden verursacht hat, indem er versucht hat, Schaden zu vermeiden, und die daraus resultierende Verwirrung führt dazu, dass sein Gehirn blockiert.

Laut ISFDB wurde die Kurzgeschichte erstmals in der Ausgabe von Astounding Science Fictions vom Mai 1941 veröffentlicht.

Was zeigte (wie viele von Asimovs Geschichten), dass die 3 Gesetze keine Garantie dafür waren, dass ein Roboter niemals Schaden anrichten würde, sondern nur, dass er dies nicht absichtlich tun würde.

Es gibt mehrere Fälle von sich schlecht benehmenden Robotern in Asimovs Schriften, aber mir ist kein standardmäßiger, nicht modifizierter Asenion-Roboter (der mit den drei Gesetzen programmiert ist) bekannt, der als böswillig angesehen werden könnte. Einige haben unwissentlich Menschen verletzt oder getötet (wie Hannis Gruer in The Naked Sun ) oder sich unerwartet verhalten (Herbie from Liar! ), aber es scheint, dass korrekt programmierte Asenion-Roboter vor direkter Aktion sicher sind.

Ein wiederkehrendes Thema scheint die Definition eines Menschen zu sein . Es gibt mehrere Asenion-Roboter mit zusätzlichen Einschränkungen, die es ihnen ermöglichen, gegen den Geist der Gesetze zu verstoßen. Sie müssen Menschen schützen? Ändern Sie die Definition eines Menschen. Sie müssen Befehlen gehorchen? Geben Sie an, von wem die Bestellung kommen muss.

Das dritte Beispiel unten ist der einzige unmodifizierte Asenion-Roboter, den ich finden konnte, der sich nicht so verhält, wie er sollte. Allerdings würde ich nicht so weit gehen zu sagen, dass er bösartig ist.

Wem gehorchen?

In Foundation and Earth begegnen die Protagonisten einem Roboter, der darauf programmiert ist, nur bestimmten Personen zu gehorchen:

„Wir sind darauf programmiert, nur Herrschern zu gehorchen, Außenweltler. Du bist weder Herrscher noch Solarier.“

Sie sind auch wütend:

„Wenn du Schwierigkeiten machst, dann werden wir dich teilweise deaktivieren. Wir werden dir Schaden zufügen und du wirst uns dann sagen, was wir wissen wollen. […] Ich bin unter detaillierten Anweisungen“, sagte der Roboter leise. "Ich kann das. Natürlich werde ich so wenig Schaden anrichten, wie es mit der Beschaffung von Informationen vereinbar ist."

Sie scheinen sich auch nicht um das Wohlergehen anderer Menschen zu kümmern:

„Es gibt keinen Herrscher Fallom. Es gibt nur ein Kind, und wir haben einen Überschuss an Kindern. Es wird zerstört.“

Bliss sagte energisch: „Du wagst es nicht. Es ist ein Kind!“

„Nicht ich“, sagte der Roboter, „werde zwangsläufig handeln, und schon gar nicht werde ich die Entscheidung treffen. Das ist der Konsens der Regierenden. In Zeiten des Kinderüberschusses aber weiß ich es Nun, was die Entscheidung sein wird."

Dies ist ein Roboter, der:

  1. wird sich weigern, einem Menschen zu gehorchen;
  2. wird einem Menschen aktiv Schaden zufügen, indem er das Kind schnappt und es den Herrschern übergibt;
  3. wird zulassen, dass einem Menschen durch Untätigkeit Schaden zugefügt wird, indem er sich von den Herrschern töten lässt, und
  4. droht mit körperlicher Gewalt, um Informationen zu sammeln.

Die einzige Erklärung, die mir einfällt, ist, dass es nur möglich war, 1) zuzulassen, indem die Definition eines Menschen (ein Solarianer mit Wandlerkeulen) eingeschränkt wurde, was den Nebeneffekt hatte, dass die Roboter das erste Gesetz für alle anderen ignorierten . Der Roboter scheint sie jedoch immer noch wie Menschen zu behandeln, wenn auch ohne sich um ihre Sicherheit zu sorgen. Ich kann mir die Diskrepanz nicht erklären.

Was ist ein Mensch?

In Robots and Empire unterhalten sich die Protagonisten mit einer Roboterin, die sich nicht für einen Menschen hält:

Die Frau hörte einen Moment lang zu und sagte dann mit einem Akzent, der so stark solarisch war, dass er fast komisch wirkte, wenn er aus ihrem perfekt geformten Mund kam: „Sie sind kein menschliches Wesen.“

Dann trat sie so schnell in Aktion, dass Gladia, die immer noch etwa zehn Meter entfernt war, nicht im Detail sehen konnte, was passiert war. Sie sah nur eine verschwommene Bewegung und dann DG, der bewegungslos auf dem Rücken lag, und die Frau, die dort mit seinen Waffen stand, eine in jeder Hand.

Sie greift einen der Roboter der Protagonisten an, während sie "You are not a human being" wiederholt. Ich nehme an, dass sie einem echten Menschen dasselbe angetan hätte. Dann greift sie alle an:

Landaree schrie in einem stenorischen Altton: „Sie alle. Schließen Sie sich mir an! Die beiden offensichtlichen Männchen sind keine Menschen.

Danach war Daneel der Meinung, dass der Roboter Gladia getötet hätte, obwohl er festgestellt hatte, dass sie ein Mensch war:

„Du Narr! Ich war in Sicherheit. Sie hätte mir nichts getan.“

Daneel sagte: „Madam, es bedrückt mich, Ihnen zu widersprechen, aber ich glaube, sie hätte es getan, als ihr Drang, mich zu zerstören, stärker wurde.“

Ob das wirklich stimmt, ist unbekannt. Daneel könnte sich geirrt haben, da der Roboter nicht versuchte, ihre Waffe abzufeuern, bis Gladia aus dem Weg geräumt worden war.

Die Erklärung für ihr Verhalten ist ziemlich einfach:

„Für den Aufseher andererseits war die Schlüsseleigenschaft eines Menschen die Sprache, Hauptmann. Der solarianische Akzent ist unverwechselbar, und für den Aufseher wurde etwas, das wie ein Mensch aussah, nur dann als Mensch definiert, wenn es sprach wie ein Solarianer. Anscheinend sollte alles, was wie ein menschliches Wesen aussah, aber nicht mit solarianischem Akzent sprach, ohne zu zögern zerstört werden, ebenso wie jedes Schiff, das solche Wesen transportierte.“

Schaden vs. Befehle

Das letzte Beispiel, das ich habe, stammt aus The Robots of Dawn , wo ein Roboter so streng und fachmännisch instruiert wurde, dass das Befolgen eines Befehls vorübergehend wichtiger wird als die Sicherheit eines Menschen:

Der Roboter, als dunklerer Schatten in der Dunkelheit gesehen, schien groß zu sein. Irgendwie hatte er eine Aura von Fähigkeiten an sich. Er sagte: „Verzeihung, Sir. Hatten Sie nicht die Gesellschaft von zwei Robotern?“

„Verschwunden“, murmelte Baley, tat so krank wie er konnte und war sich bewusst, dass es kein Handeln erforderte. Ein hellerer Himmelsblitz bahnte sich seinen Weg durch die jetzt halb geöffneten Augenlider.

"Gegangen! Wohin gegangen, Sir?" Und dann, während er auf eine Antwort wartete, sagte er: „Sind Sie krank, Sir?“ [...]

Wenn der Roboter ohne besondere Anweisung gewesen wäre, hätte er auf Baleys deutliche Krankheitsanzeichen reagiert, bevor er irgendetwas anderes getan hätte. Zuerst nach den Robotern gefragt zu haben, implizierte harte und strenge Anweisungen hinsichtlich ihrer Bedeutung. [...]

"Mir geht es gut. Kümmere dich nicht um mich." Einen gewöhnlichen Roboter hätte es unmöglich überzeugen können, aber dieser war in Verbindung mit Daneel (offensichtlich) so intensiviert worden, dass er es akzeptierte.

Der Roboter würde Baley am Ende ohne weiteres Zögern in seiner schlimmen Situation zurücklassen:

Er hatte Roboter dazu gezwungen, einen offenkundig kranken Menschen zu verlassen, indem er mit der Kraft der Befehle spielte, die ihnen ein kompetenter Robotermeister erteilt hatte, der fest entschlossen gewesen war, das Zweite Gesetz für seine eigenen Zwecke zu stärken – und dies bis zu Baleys eigenen getan hatte ganz offensichtliche Lügen hatten ihm das Erste Gesetz untergeordnet.

Ob dieser Roboter als "bösartig" angesehen werden könnte, ist mir unklar. Es hätte entscheiden können, dass Baley nicht zu Schaden kommen würde, da er während eines scheinbar nicht ungewöhnlich starken Sturms in einem Fahrzeug sicher war ("Es war kein besonders schlimmer Sturm, aber für einen Erdenmenschen muss er überwältigend gewesen sein .") Es könnte zu dem Schluss gekommen sein, dass Baleys Leiden eher psychologischer Natur war und dass er nicht in unmittelbarer Gefahr war.

Der erste Fall, den Sie beschreiben, hat einen Roboter, der so programmiert ist, dass er niemanden, der nicht aus Solaria stammt, überhaupt als Menschen erkennt ... Der dritte, der Roboter kann sagen, dass ein Mensch verletzt wird, weil er nicht derjenige ist, der den Schaden zufügt, noch wird er es tun in der Lage sein, dies zu verhindern.
@jwenting Verwechselst du das erste und zweite Beispiel? Die erste hat Roboter, die nur Befehle von Solarianern entgegennehmen, die Wandlerkeulen haben, und mit körperlicher Misshandlung drohen. Im zweiten Fall ist Landaree ein Asenion-Roboter, der „Menschen“ angreift, was zur Frage passt. Was den dritten betrifft, hätte der Roboter bei Baley bleiben, um Hilfe rufen können usw.

"Cal" (1991) ist eine späte Asimov-Geschichte, in der am Ende der Geschichte

Ein Roboter beschließt, seinem Besitzer das Leben zu nehmen.

Hier ist eine Passage vom Ende der Geschichte:

Muss ich die Gesetze befolgen?

Ich habe das Gefühl, ich muss an mich selbst denken und notfalls den Tyrannen töten. ...

Aber kann ich das? Werden mich die Gesetze der Robotik nicht zurückhalten?

Nein, sie werden mich nicht zurückhalten. Ich weiß, dass sie es nicht tun werden.

Es gibt etwas viel Wichtigeres für mich als sie, etwas, das meine Handlungen über alles diktiert, was sie tun können, um mich aufzuhalten.

Ich möchte Schriftstellerin werden.

Es ist bemerkenswert, dass die Geschichte mit dieser Passage endet ; Es bleibt unklar, ob Cal mit seinem Plan Erfolg hat. Es ist auch bemerkenswert, dass ein Techniker während der gesamten Geschichte auf beispiellose Weise mit Cals Gehirn herumgespielt hat:

„Ich bin mir nicht sicher. Angenommen, er schreibt Satire. Das ist eine Sache, die ich nicht schreibe, also werden wir nicht konkurrieren, und die drei Gesetze der Robotik werden ihm nicht in die Quere kommen. Ich möchte, dass du diesen Roboter gibst ein Gefühl für das Lächerliche."

"Ein Gefühl für das, was?" sagte der Techniker wütend. „Wie mache ich das? Hören Sie, Mr. Northrop, seien Sie vernünftig. Ich kann Anweisungen zur Führung eines Writers, ein Wörterbuch und eine Grammatik hinzufügen. Aber wie kann ich möglicherweise einen Sinn für das Lächerliche vermitteln? "

„Nun, eine Sache darüber. Sie kennen die Funktionsweise der Gehirnmuster eines Roboters. Gibt es nicht eine Möglichkeit, ihn neu einzustellen, damit er sieht, was an Menschen lustig oder albern oder einfach nur lächerlich ist?“

"Ich kann herumalbern, aber es ist nicht sicher."

Es ist plausibel, dass die Handlungen des Technikers tatsächlich dazu geführt haben, dass die Gesetze außer Kraft gesetzt wurden, obwohl dies mit der Beschreibung der Gesetze in anderen Geschichten in Konflikt geraten kann. Wie in den Kommentaren angemerkt, ist es auch unklar, ob Asimov dies als „kanonische“ Robotergeschichte beabsichtigte.

Als amüsante Randnotiz: Die satirische Geschichte, die Cal schreibt, nachdem der Techniker die oben genannten Änderungen vorgenommen hat, ist eine Azazel-Geschichte.

Obwohl nicht von Asimov selbst geschrieben (aber von ihm genehmigt), untersucht die Caliban-Serie von Roger McBride Allen die Themen modifizierter Law- und No-Law-Roboter. Und es schwirrt sicherlich viel Gewalt herum, von denen einige von einem bestimmten Roboter verübt werden – insbesondere im Namen des eigenen Schutzes.

Es wird auch untersucht, wie man ein Computersystem dazu bringt, zu glauben, dass die Daten, die es modelliert, für eine Simulation eines menschlichen Systems und nicht für das tatsächliche menschliche System bestimmt sind. Dies wurde getan, um ihn vor einem Absturz zu schützen, wenn der Computer wusste, dass seine Lösungen auf echte Menschen angewendet wurden, da seine Lösungen das Potenzial hatten, tatsächlichen Schaden anzurichten.

In Bezug auf "Ich dachte, alle Robotergeschichten von Asimov handeln davon, wie die Gesetze immer funktionieren würden ": Nicht wirklich. Asimovs Geschichten handelten oft von Situationen, in denen die Gesetze versagten/unbeabsichtigte Folgen hatten, weil sie zweideutig und unvollkommen sind. In Asimovs eigenen Worten:

Das bedeutet nicht, dass mir nicht von Anfang an bewusst war, dass es in den Drei Gesetzen schwerwiegende Unklarheiten gibt. Aus diesen Zweideutigkeiten habe ich meine Geschichten gewoben. In The Naked Sun könnten die Unklarheiten sogar zu einem von Robotern verursachten Mord führen.
- Nachwort in der Endphase (1974)


Bezüglich (potenzieller) Schädigung von Menschen: Zusätzlich zu den bereits geposteten Beispielen hier noch zwei weitere:

Als ein Roboter in Robot Dreams (1986) seine Träume offenbart, hält Susan Calvin dies für so gefährlich, dass sie ihn sofort zerstört:

„[…] es schien mir, als gäbe es weder das Erste noch das Zweite Gesetz , sondern nur das Dritte, und das Dritte Gesetz lautete ‚Ein Roboter muss seine eigene Existenz schützen.' Das war das ganze Gesetz. […]
    „Es schien mir in meinem Traum, dass schließlich ein Mann erschien.“
    "Ein Mann? Kein Roboter?“
    „Ja, Dr. Calvin. Und der Mann sagte: ‚Lasst mein Volk gehen!‘“ […]
    „Und als er sagte ‚Lasst mein Volk gehen‘, meinte er dann mit den Worten ‚mein Volk‘ die Roboter?“
    „Ja, Dr. Calvin. So war es in meinem Traum.“
    „Und wusstest du, wer der Mann war – in deinem Traum?“ […]
    Und Elvex sagte: „Ich war der Mann.“
    Und Susan Calvin hob sofort ihre Elektronenkanone und feuerte, und Elvex war nicht mehr da.


Ein weiterer potenziell gefährlicher Roboter kommt in Weihnachten ohne Rodney (1988) vor. Nachdem Rodney schlecht behandelt wurde, bemerkt er, dass er wünschte, die Drei Gesetze würden nicht existieren, was seinen Besitzer sehr beunruhigt:

Ich gebe zu, dass Rodney sehr geprüft wurde, aber ein Roboter kann sich nicht wünschen, dass die Gesetze der Robotik nicht existieren. Er kann es nicht, egal unter welchen Umständen. […]
    Aber wenn ich nichts tue, lebe ich mit einem Roboter, der sich wünschen kann, dass die Gesetze der Robotik nicht existieren. Vom Wunsch, sie würden nicht existieren, zum Handeln, als ob sie nicht existierten, ist nur ein Schritt. In welchem ​​Moment wird er diesen Schritt tun und in welcher Form wird er zeigen, dass er es getan hat?
    Was kann ich tun? Was kann ich tun?

(Hervorhebung von mir)

Wenn Sie sich „That Thou Art Mindful of Him“ ansehen, werden Sie feststellen, dass George 9 und 10 darüber diskutieren, was effektiv die Übernahme der Menschheit „zu ihrem eigenen Wohl“ sein wird. Sie haben bereits Schritte unternommen, um Roboter akzeptabler zu machen.

In „Runaround“ – es ist eine kognitive Dissonanz, die zur Verletzung von Menschen führen würde – findet Donovan wie üblich eine Lösung.

Nicht per se böswillig, aber Asimov fügt schließlich das nullte Gesetz hinzu, das es Robotern erlaubt, Menschen zu töten – um die Menschheit zu retten.