Kann ein Roboter, der mit einem Betriebssystem mit 3 Gesetzen programmiert ist, einem Menschen Schaden zufügen, der einem anderen Menschen Schaden zufügt?

Wir sehen, dass ein Roboter einen anderen Roboter angreifen kann, um einen Menschen zu verteidigen, aber kann ein auf 3 Gesetze programmierter Roboter einen Menschen gegen einen anderen Menschen verteidigen?

Nicht ohne gegen das Gesetz zu verstoßen. Ich würde das zu einer Antwort machen, aber ich bin kein Anwalt.
Eine bessere Frage wäre: Ein Mensch, der dabei ist, einen anderen Menschen zu töten, und der Roboter kann das nur verhindern, indem er den menschlichen Angreifer tötet. Meiner Meinung nach hängt das von der Komplexität des Roboters ab, gemäß der Antwort von Algernon_Asimov.
Ihr solltet The Naked Sun von Asimov lesen, es wird viel erklären!
Die Frage im Titel und die Frage im Hauptteil sind unterschiedliche Fragen.
Die verschiedenen Kurzgeschichten von Isaac Asimov untersuchen, was passiert, wenn mit den drei Gesetzen gespielt wird. Dazu gehören positives und negatives Feedback zu den verschiedenen Gesetzen, einschließlich des nullten.
Ich vermute, es würde eine Stapelüberlauf-Ausnahme verursachen ...

Antworten (6)

Ja, kann es.

Es gibt verschiedene Möglichkeiten, einen Menschen vor einem anderen Menschen zu schützen, der ihn angreift.

Für den Anfang könnte ein Roboter das Opfer vom Angriffsort entfernen: Das Opfer aufheben und vor dem Angreifer davonlaufen.

Ein Roboter könnte einfach zwischen dem Angreifer und dem Opfer stehen und den Angriff blockieren – den Angreifer anstelle des Opfers treffen lassen.

Ein Roboter könnte den Angreifer immobilisieren, ohne ihn zu verletzen, indem er beispielsweise seine Arme um ihn legt, um zu verhindern, dass er das Opfer trifft.

Wenn es sich um eine Waffe wie ein Messer oder eine Waffe handelte, konnte der Roboter den Angreifer entwaffnen, indem er die Waffe ergriff. Wenn der Angreifer seine Waffe nicht loslässt und der Roboter dem Angreifer schließlich Schaden zufügt, würde dies dem Roboter Probleme bereiten – und das Ausmaß des Problems würde von der Höhe des verursachten Schadens abhängen.

Es gibt viele Möglichkeiten, wie ein Roboter einen Menschen vor einem Angriff schützen kann, ohne den angreifenden Menschen zu verletzen.

Wenn der Roboter den Angriff jedoch nicht auf eine der oben genannten Arten stoppen konnte, muss der Roboter möglicherweise direkter handeln. Und der Roboter würde so weit wie nötig gehen, um das Opfer zu verteidigen – bis er dem Angreifer Schaden zufügt. An diesem Punkt überwiegt die Tatsache, einem Menschen aktiv Schaden zuzufügen, den potenziellen Schaden für das Opfer, und der Roboter muss sich mit der „Schuld“ auseinandersetzen. Viele Roboter werden an dieser Stelle einfach heruntergefahren. Einige würden desorientiert werden und Hilfe benötigen. Nur sehr wenige hochentwickelte Roboter (wie Daneel Olivaw oder Andrew Martin oder Giskard Reventlov) wären in der Lage, mit dem von ihnen verursachten Schaden fertig zu werden, indem sie ihn gegen den von ihnen verhinderten Schaden abwägen.

Soweit ich weiß, ist das Szenario eines Roboters, der einen Menschen gegen den Angriff eines anderen Menschen verteidigt, nur einmal in einer von Asimovs Geschichten vorgekommen. Um es zu beschreiben, muss man das Ende von „Robots and Empire“ verderben. Wenn Sie dieses Buch nicht gelesen haben und das Ende nicht verderben möchten, müssen Sie den Rest dieser Antwort überspringen. Es tut uns leid!

In diesem Buch verschworen sich ein paar Menschen (Raumfahrer), um die Erde zu bestrahlen. Sie hatten unterschiedliche Motive: Levular Mandamus wollte den Planeten langsam über Jahrhunderte bestrahlen, nur um die Erdenmenschen zu zwingen, den Planeten zu verlassen; Kelden Amadiro wollte den Planeten schnell bestrahlen, über nur ein oder zwei Jahrzehnte, was Milliarden von Erdbewohnern töten würde, die den Planeten nicht rechtzeitig verlassen könnten.

Zwei Roboter, R. Daneel Olivaw und R. Giskard Reventlov, versuchen dies zu verhindern. Sie kommen am Tatort an und finden Amadiro, der einen Blaster auf Mandamus richtet (versucht, Mandamus davon zu überzeugen, die Dinge auf Amadiros Art zu tun).

Schneller als das Auge folgen konnte, streckte sich ein Arm aus, um Amadiros Handgelenk zu packen, es mit Druck zu lähmen, und der Blaster war verschwunden.

Daneel sagte: „Ich entschuldige mich dafür, dass ich Ihnen Schmerzen zufügen musste, Dr. Amadiro, aber ich kann Ihnen nicht erlauben, einen Blaster auf einen anderen Menschen zu richten.“

Ganz einfach: Ein Roboter fügt einem Menschen Schmerzen zu, um zu verhindern, dass er einen anderen Menschen verletzt oder tötet. Zugegeben, Daneel war ein sehr fortschrittlicher Roboter. Vereinfachtere Roboter könnten einen Brain-Freeze erlitten haben, nachdem sie Schmerzen verursacht hatten, um Schaden zu verhindern.

Später versetzt Giskard Amadiro ins Koma (Giskard hat telepathische Kräfte – lange Geschichte!), als Amadiro erklärt, dass er Erdenmenschen töten will. Und Giskard leidet unter dieser Aktion nicht, aber er ist ein weiterer fortschrittlicher Roboter. Tatsächlich ist er der Roboter, der das nullte Gesetz der Robotik erfindet: „Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass die Menschheit Schaden erleidet.“ (Er „stirbt“ an etwas anderem, was er später tun möchte, weil er sich nicht sicher ist, ob er die richtige Wahl für die Menschheit getroffen hat.)

Dies sind zwei Roboter, die einem Menschen Schmerzen und Schaden zugefügt haben, um ihn daran zu hindern: einen sichtbaren und anwesenden Menschen zu töten; Tötung vieler Menschen, die zu dieser Zeit weder anwesend noch sichtbar waren.

Gute Antwort. Ich kann niemanden sehen, der eine bessere oder korrektere präsentiert. Jetzt muss ich diese Geschichte für den vollständigen Kontext lesen.
Zweitens möchte ich nur darauf hinweisen, dass der Angreifer es schlagen lässt, anstatt das Opfer kann und wird wahrscheinlich dem Angreifer von sperrigeren Robotern Schaden zufügen. Durch die Wahl dieser Option würde ein solcher Roboter technisch gesehen gegen das erste Gesetz verstoßen, mit den üblichen Konsequenzen.
Insgesamt tolle Antwort. Aber es muss betont werden, dass Roboter echte Probleme damit haben, Menschen Schaden zuzufügen. Beim ersten Auftritt von R. Daneel Olivaw trägt er einen Blaster ... dessen Energiezelle entfernt wurde, damit keine Chance besteht, einen Menschen zu verletzen. In The Naked Sun wird ein Roboter so wahnsinnig, dass sein Verstand zerstört wird, wenn ein Mensch vor ihm ermordet wird. (Es ist wirklich schuldlos, aber es war am Rande beteiligt und die "Schuld" war zu viel.)
Tolle Antwort, ein paar Ergänzungen: As far as I know, the scenario of a robot defending a human against another human's attack has occurred only once in any of Asimov's stories.Früher im selben Buch hat Giskard auch Vasilia Aliena ins Koma gelegt. (He does "die" from something else he chooses to do later, because he's not sure if he made the right choice for humanity.) [...] ; killing many humans, neither present nor visible at the time.Sie hätten die Details von Giskards Entscheidung angeben können, es ist sehr relevant für die Frage.

Um die obige Antwort zu ergänzen, sei daran erinnert, dass das erste Gesetz besagt: "Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird ."

Die ideale Lösung für einen Drei-Gesetze-konformen Roboter besteht darin, auf eine Weise einzugreifen, die den Schaden des Opfers verhindert, aber den Angreifer nicht verletzt – indem er in den Angriffspfad tritt, das Opfer bewegt usw.

Wenn dies nicht möglich ist, wurde der Roboter in eine Position gebracht, in der jede mögliche Reaktion – einschließlich Nichtstun – gegen die Gesetze verstößt. Ob ein Roboter dies überstehen kann, scheint von zwei Faktoren abzuhängen: Wie ausgeklügelt sein „Gehirn“ ist und ob ein Verstoß wesentlich schwerwiegender oder weniger schwerwiegend ist als die Alternative(n). Ein ausreichend fortgeschrittener Roboter wird die Vorgehensweise wählen, die den kleinsten Verstoß gegen die Gesetze verursacht; ist sein Gehirn zu einfach oder die Lücken zu groß, friert es ein.

Die Implikation, zumindest für mich, ist, dass die traditionelle Formulierung der Gesetze eigentlich nur eine Annäherung ist, die für Laien leicht verständlich sein soll. Die wirkliche Implementierung scheint eine Art Optimierungsfunktion zu sein, wobei den höheren Gesetzen ein größeres Gewicht beigemessen wird als den niedrigeren. Wenn der Roboter die Gleichung für eine gegebene Situation lösen kann, ist es in Ordnung; wenn es nicht kann, beginnt es zu brechen.

CL-123X tötete tatsächlich seinen Meister in der Kurzgeschichte Cal , die in GOLD gesammelt zu finden ist .
Darüber hinaus glaube ich, dass es vereinzelt Fälle gegeben hat, in denen Roboter nicht intelligent genug waren, den Ablauf ihrer Handlungen zu durchdenken, schnell zu reagieren und es dann später zu bereuen.
„Die eigentliche Implementierung scheint eine Art Optimierungsfunktion zu sein, bei der die höheren Gesetze stärker gewichtet werden als die niedrigeren.“ Jawohl. Ich erinnere mich, dass Daneel dies in einer Geschichte erklärt hat. Wenn ihm befohlen würde, sich selbst zu zerstören, würde er mit ziemlicher Sicherheit einen Weg finden, den Befehl zu umgehen, was einer vereinfachenden Auslegung des zweiten und dritten Gesetzes widerspricht.
Asimov geht in mehreren Geschichten explizit auf die Priorisierung von Gesetzen ein, insbesondere in „Runaround“.

Das Problem hier ist, dass das erste zitierte Gesetz mit einem eingebauten Konflikt geschrieben ist, da das „oder“ zwei unterschiedliche Fälle miteinander verbindet. Das erlaubt das hier vorgestellte Gedankenexperiment.

Wenn wir nicht den Gewichtungsfaktor zwischen ihnen kennen (nicht unbedingt 1;1) und wenn wir nicht wissen, wie diese bestimmte Situation von dieser bestimmten Gehirnimplementierung bewertet würde, werden wir niemals in der Lage sein, die Frage zu beantworten.

Ein Beispiel für einen Konflikt, der auf dieser Ebene nicht gelöst werden kann, finden Sie in der Geschichte Runaround

Dies ist eine Frage, auf die es zu Asimovs Lebzeiten eine sich entwickelnde Antwort gegeben hat, während er durcharbeitete, was all die Implikationen der drei Gesetze waren. Abgesehen davon können die ursprünglichen Fragen nur mit „Ja, aber …“ beantwortet werden, da positronische Gehirne und Programmierungen im Laufe der Zeit als Reaktion auf die Ereignisse in diesem Universum komplexer und ausgefeilter wurden. Ich empfehle besonders die Geschichte "Liar" von 1941: http://en.wikipedia.org/wiki/Liar!_(short_story)

Das Problem ist, dass Gesetze interpretiert werden müssen, also geht es eher um die Implementierung (Interpretation dessen, was die richtige Vorgehensweise ist) der Roboterintelligenz, insbesondere im Hinblick auf dieses erste Gesetz.

Bsp.: Was ist „Schaden“? Selbst der kleinste Kratzer von einem Roboter? Dies würde für einen vernünftigen Menschen keinen Sinn ergeben, und das ist die Grundlage des englischen Common Law (das auch die Grundlage des US-Rechts und der Gesetze vieler anderer Teile der Welt ist).

Was für diese vernünftige Person (ich) sinnvoller wäre, wäre, das Gesetz in einem solchen Fall, wie Sie ihn beschreiben, so auszulegen, dass der „Schaden“, der dem menschlichen Angreifer durch einen Roboter zugefügt wird, nicht größer ist als der, der aller Wahrscheinlichkeit nach der Fall wäre und durch die Untätigkeit des Roboters dem menschlichen Opfer zugefügt wurden, das der Roboter beschützte ... aber dann haben Sie das Dilemma ... eines echten Schadens, der einem potenziellen Angreifer zugefügt wird, gegenüber einem möglichen / wahrscheinlichen, aber nicht realisierten Schaden an einem potenziellen Opfer . Mit anderen Worten, Gesetze, die sich auf Roboteraktionen beziehen, werden genauso wuchtig sein wie Gesetze, die sich auf Menschen beziehen, und die Menschen, die davon profitieren, sind die Anwälte. ;-)

Betrachten Sie die folgende Situation: Person A wird Person B verletzen (sagen wir töten). Der Roboter kann dies nur verhindern, indem er Person A Schaden zufügt. Zum Beispiel ist der Roboter hinter Gittern, kann aber einen Ziegelstein werfen.

Das erste Gesetz besagt: "Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird." Wenn der Roboter einen Stein wirft, verletzt er Mensch A, aber wenn er es nicht tut, lässt er zu, dass Mensch B Schaden nimmt. Bisher steht der Roboter auf der Kippe. Untätigkeit wäre wahrscheinlich die sicherere Wahl, weil es keine hundertprozentige Sicherheit geben kann, dass A seine Meinung nicht im letzten Moment ändert.

Wenn B jedoch „hilf mir, Roboter!“ schreit, würde das Handeln 50 % des ersten Gesetzes und des zweiten Gesetzes erfüllen, während Untätigkeit allein durch 50 % des ersten Gesetzes unterstützt würde. Dies könnte den Unterschied ausmachen und den Roboter zum Handeln zwingen. Jede Anweisung von Person A, selbst scheinbar harmlose wie „Bleib weg“, kann vom Roboter ignoriert werden, da ihre Absicht eindeutig gegen das erste Gesetz verstößt.