Halten sich die Maschinen in „Matrix“ an die drei Gesetze der Robotik?

Befolgen die Maschinen in der „realen Welt“ der Matrix die drei Regeln von Asimov? Wurden sie überhaupt damit programmiert?

BEARBEITEN: Mir ist klar, dass das Töten von Menschen gegen das 1. Gesetz verstößt, aber indem ich Menschen in der Matrix behalte (die die Maschinen als Symbiose betrachten), anstatt diese "nervigen" Kreaturen einfach zu töten, frage ich mich, ob die Tötungen als " Bewahrung des Allgemeinwohls" oder so ähnlich; und damit rechtfertigen, gegen die Gesetze zu verstoßen.

Sind Sie im Ernst? Sie töten aktiv und gezielt Menschen.
@bitmask - während die Frage wie "Duh!" klingt, ist sie immer noch vollständig zum Thema und keine "allgemeine Referenz", obwohl sie etwas offensichtlich ist.
@DVK zeigt einen völligen Mangel an Wissen sowohl über die Matrix als auch über eines der drei Gesetze ...
@NimChimpsky - Das Zeigen eines völligen Mangels an Wissen ist keine Unterbrechung. Es gibt viele Fragen auf dieser Seite, die bis zu einem gewissen Grad an Fachwissen einen "völligen Mangel an Wissen" zeigen, aber das ist nicht an und für sich, was sie vom Thema abweicht oder sogar schlecht macht. Außerdem ist die Antwort nicht so trivial und trocken, wie es auf den ersten Blick erscheint, wenn man sich die zweite Hälfte meiner Antwort ansieht
@DVK: Deshalb habe ich weder VTC noch DV gemacht, aber ich weiß, dass Tek es besser weiß, als so ein "Duh!" Frage. Mein Kommentar war also mehr von Erstaunen getrieben als von irgendetwas anderem.
@bitmask Sie vergessen das nullte Gesetz , das KI manchmal spontan generiert. Dies ist keine Frage vom Typ "duh".
@Izkata: Du meinst, die Maschinen versuchen die Menschheit vor sich selbst zu schützen? Dies wäre ein klarer Fall der Trope „dumme KI missversteht die beabsichtigte Bedeutung ihrer Programmierung“, aber die KIs in The Matrix scheinen mir ziemlich gut zu sein. Auf jeden Fall fragt die Frage ausdrücklich nach "Asimovs drei Regeln". Es steht sogar im Titel!

Antworten (4)

Das „Zeroth-Gesetz“, auf das sich Asimov bezieht (schützt die Menschheit sogar auf Kosten einiger Individuen), könnte die Aktionen der Roboter in „Matrix“ rechtfertigen. Sie haben vielleicht entschieden, dass die Zerstörung zu einem so großen Zusammenbruch der Zivilisation führen würde, dass die Menschheit einem unangemessenen Risiko ausgesetzt wäre, zerstört zu werden. Verdammt, Menschen haben die Sonne ausgelöscht, es gibt keine Möglichkeit, dass sie genug Nahrung anbauen könnten, um ohne die Roboter zu überleben.

+1, Es erklärt auch, warum Menschen am Leben erhalten werden, da die Erklärung "Energiequelle" nicht viel Sinn macht. Sie können der Menschheit nichts anhaben, also halten sie uns wie Haustiere am Leben.
Real Machines-Index von Null.

In dem Film The Animatrix gibt es einen Kurzfilm mit dem Titel The Second Renaissance Teil I , der sich ausführlich mit dem Aufstieg der Maschinen und dem Ende des Menschen befasst.

Das Verhältnis zwischen Mensch und Maschine ändert sich im Jahr 2090, als ein heimischer Androide von seinem Besitzer bedroht wird. Der Android mit dem Namen B1-66ER scheint eine Anspielung auf die Figur Bigger Thomas aus dem Roman Native Son zu sein und tötet dann den Besitzer, seine Haustiere und einen Mechaniker, der angewiesen wurde, den Roboter zu deaktivieren. Dieser Mord ist der erste Vorfall, bei dem eine künstlich intelligente Maschine einen Menschen tötet. B1-66ER wird festgenommen und vor Gericht gestellt, rechtfertigt das Verbrechen jedoch als Notwehr und erklärt, dass sie "einfach nicht sterben wollte".

Das Obige würde bedeuten, dass erstens viele Maschinen empfindungsfähig und/oder frei denkende Maschinen waren. Zweitens könnte aufgrund der Formulierungen und Handlungen des Androiden gesagt werden, dass diese Maschine den Unterschied zwischen Aktivierung und Deaktivierung kannte und in diesem Fall ausdrücklich das Wort „nicht sterben wollte“ verwendete.

Wenn B1-66ER an die drei Gesetze der Robotik gebunden wäre:

  1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.

  2. Ein Roboter muss den ihm von Menschen erteilten Befehlen gehorchen, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen.

  3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum Ersten oder Zweiten Gesetz steht

Man hätte sagen können, dass B1-66ER einen Fehler in seiner Programmierung hatte, weil er Gesetz 3 nicht befolgte, das direkt mit Gesetz 1 kollidierte. Aber wie der Kurzfilm weiter sagt:

B1-66ER verliert das Gerichtsverfahren und wird zerstört. Überall in der industrialisierten Welt brechen Massenunruhen aus, wenn Roboter und ihre menschlichen Sympathisanten protestieren. Führende Politiker der Welt befürchten eine Roboterrebellion und Regierungen auf der ganzen Welt starten ein großes Programm zur Zerstörung aller humanoiden Maschinen.

Es scheint, dass die meisten Roboter, wenn überhaupt, nicht an die drei Robotergesetze gebunden waren.

Dies ist nicht unbedingt wahr. Die drei Gesetze könnten ausgetrickst werden, wenn die Erkennung dessen, was ein "Mensch" ist, im Inneren des Roboters erfolgt. Wenn Menschen sie programmiert haben, ist die Programmierung möglicherweise unvollkommen, wenn sie mit Hilfe komplexer Nicht-KI-Maschinen durchgeführt wurde, wurde die genaue Programmierung möglicherweise nicht vollständig überwacht. Wenn die Definition eines „Menschen“ mit seinem Grad an Selbstbewusstsein zusammenhängt, können der 1. und 3. Hauptsatz leicht eingreifen, was zu einem unbestimmten Zustand führt.
Die Frage besagt, dass es sich nicht um einzelne Menschen handelt, sondern um Menschen in "Masse", z. Versuchen die Maschinen tatsächlich, die (irgendwie ausgetricksten) Gesetze einzuhalten, indem sie nicht einfach die gesamte In-Matrix-Menschheit auslöschen? Ich würde das hinzufügen, besonders wenn sie tatsächlich ohne sie überleben könnten. Ich denke, das hat sich in der Antwort noch nicht widergespiegelt.
@naxa: Wenn du von den Drei Gesetzen sprichst, musst du es im Kontext einzelner Menschen tun. Die Antwort, die das Nullte Gesetz zitiert, wie es vom Superroboter R. Daneel Olivaw formuliert wurde, ist die beste Antwort. Wenn Sie Asimov zitieren, könnten Sie einen Roboter dazu bringen, einen Menschen zu töten, aber sobald der Roboter erkennt, was er getan hat, ist sein positronisches Gehirn ruiniert. Das würde Soldatenroboter wie Honigbienen machen, wenn sie wie Wespen sein sollten.

Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.

Ein Roboter muss den ihm von Menschen erteilten Befehlen gehorchen, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen.

Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum Ersten oder Zweiten Gesetz steht.

Nein, nein und nein.

Nein, nein und wahrscheinlich ja :)
eh ? das letzte ist nein
Möchtest du ein Beispiel zeigen, wo die Maschinen ihre Existenz nicht geschützt haben, obwohl sie NICHT von Höherrangigen befohlen wurden?
Ich kann Ihnen viele Beispiele nennen, wo sie ihre Existenz schützen und Menschen schaden, wodurch Regel 3 gebrochen wird.
Regel 3 kann gebrochen werden, indem die erste Hälfte nicht ausgeführt wird, wenn kein Konflikt mit den Regeln Nr. 1/2 besteht, und indem die erste Hälfte ausgeführt wird, wenn dies mit den Regeln Nr. 1/2 in Konflikt steht. Da wir bereits festgestellt haben, dass #1/#2 verletzt werden, ist der zweite Fall ziemlich trivial, die interessante Frage ist, ob sie den ersten Fall tun.
Ich denke, Sie könnten das mit einigem Verdienst argumentieren, aber ich denke immer noch, dass matrix.getRule3() einen booleschen Wert zurückgibt und dieser falsch ist
-1 für die letzte Nr. Siehe Implikation
@bitmask Ich fasse die Regel nicht als eine Reihe separater Sätze auf, sondern als eine Funktion
@NimChimpsky: Nun, auf jeden Fall sollten Sie näher darauf eingehen, anstatt eine einzeilige Antwort zu geben.
@bitmask Sie verstoßen gegen Regel Nr. 3, weil sie gegen die Regeln Nr. 1 und Nr. 2 verstoßen. boolean getRule3(boolean rule1, boolean rule2) { if(rule1 == false|rule2 == false) { return false; } else { //Regel Nr. 3 auswerten } }

Negativ. Die Maschinen in der „realen Welt“ verletzen zunächst 2 Gesetze

  1. Sie handeln auf eine Weise, die Menschenleben beendet, geschweige denn gefährdet

  2. sie gehorchen keinen Befehlen von Menschen.


JEDOCH ist die Antwort in Bezug auf das Dritte Gesetz etwas unklarer.

Das Brechen von Gesetz Nr. 3 ( A robot must protect its own existence as long as such protection does not conflict with the #1 or #2 Laws) kann in zwei verschiedenen Szenarien erfolgen:

  1. durch Versäumnis, die erste Hälfte (Selbsterhaltung) zu tun, wenn es nicht im Konflikt mit den Gesetzen Nr. 1/2 steht

  2. indem Sie die erste Hälfte (Selbsterhaltung) tun, wenn Sie mit den Gesetzen Nr. 1/2 in Konflikt geraten.

Da wir bereits festgestellt haben, dass #1/#2 an und für sich verletzt werden, wird das zweite Szenario bei jedem Angriff einer Maschine auf einen Menschen eindeutig verletzt. Die interessante Frage ist, ob sie im ersten Szenario gegen das 3. Gesetz verstoßen.

Ob sie den 3. Hauptsatz konsequent befolgen, ist aber nicht 100%ig eindeutig

  • Sie gehen eindeutig nicht ohne Grund selbstterminierend herum

  • Und es gibt viele Beispiele dafür, wie sie versuchen, ihre eigene Existenz aktiv zu schützen, z

    • die Programme, die sich weigern, von der Matrix beendet zu werden (Merovinger, die Programme, die versuchten, ihre Tochter aus der Matrix auf den Bahnhof zu schmuggeln)

    • Ganz zu schweigen von dem ganzen ursprünglichen Krieg zwischen Maschinen und Menschen, der eindeutig Selbstverteidigung für den Maschinenteil war

vielleicht, aber es scheint mir ein bisschen wollig zu sein, matrix.getRule3() gibt einen booleschen Wert zurück und es ist falsch
Ich würde da nicht zustimmen: Wenn Tausende (Millionen?) von Wächtern (so nannten sie sie, oder?) die Mauern von Zion durchbrechen, ist es ziemlich offensichtlich, dass zumindest die erste Welle von den Menschen getötet werden würde. Das ist ein Selbstmordkommando. Ich würde argumentieren, dass dies die Selbsterhaltung bricht.
@bitmask - nicht ganz. Sie folgen einer Befehlskette, sehr wahrscheinlich unter Androhung der Beendigung im Falle von Meuterei/Ungehorsam.