Befolgen die Maschinen in der „realen Welt“ der Matrix die drei Regeln von Asimov? Wurden sie überhaupt damit programmiert?
BEARBEITEN: Mir ist klar, dass das Töten von Menschen gegen das 1. Gesetz verstößt, aber indem ich Menschen in der Matrix behalte (die die Maschinen als Symbiose betrachten), anstatt diese "nervigen" Kreaturen einfach zu töten, frage ich mich, ob die Tötungen als " Bewahrung des Allgemeinwohls" oder so ähnlich; und damit rechtfertigen, gegen die Gesetze zu verstoßen.
Das „Zeroth-Gesetz“, auf das sich Asimov bezieht (schützt die Menschheit sogar auf Kosten einiger Individuen), könnte die Aktionen der Roboter in „Matrix“ rechtfertigen. Sie haben vielleicht entschieden, dass die Zerstörung zu einem so großen Zusammenbruch der Zivilisation führen würde, dass die Menschheit einem unangemessenen Risiko ausgesetzt wäre, zerstört zu werden. Verdammt, Menschen haben die Sonne ausgelöscht, es gibt keine Möglichkeit, dass sie genug Nahrung anbauen könnten, um ohne die Roboter zu überleben.
In dem Film The Animatrix gibt es einen Kurzfilm mit dem Titel The Second Renaissance Teil I , der sich ausführlich mit dem Aufstieg der Maschinen und dem Ende des Menschen befasst.
Das Verhältnis zwischen Mensch und Maschine ändert sich im Jahr 2090, als ein heimischer Androide von seinem Besitzer bedroht wird. Der Android mit dem Namen B1-66ER scheint eine Anspielung auf die Figur Bigger Thomas aus dem Roman Native Son zu sein und tötet dann den Besitzer, seine Haustiere und einen Mechaniker, der angewiesen wurde, den Roboter zu deaktivieren. Dieser Mord ist der erste Vorfall, bei dem eine künstlich intelligente Maschine einen Menschen tötet. B1-66ER wird festgenommen und vor Gericht gestellt, rechtfertigt das Verbrechen jedoch als Notwehr und erklärt, dass sie "einfach nicht sterben wollte".
Das Obige würde bedeuten, dass erstens viele Maschinen empfindungsfähig und/oder frei denkende Maschinen waren. Zweitens könnte aufgrund der Formulierungen und Handlungen des Androiden gesagt werden, dass diese Maschine den Unterschied zwischen Aktivierung und Deaktivierung kannte und in diesem Fall ausdrücklich das Wort „nicht sterben wollte“ verwendete.
Wenn B1-66ER an die drei Gesetze der Robotik gebunden wäre:
Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.
Ein Roboter muss den ihm von Menschen erteilten Befehlen gehorchen, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen.
Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum Ersten oder Zweiten Gesetz steht
Man hätte sagen können, dass B1-66ER einen Fehler in seiner Programmierung hatte, weil er Gesetz 3 nicht befolgte, das direkt mit Gesetz 1 kollidierte. Aber wie der Kurzfilm weiter sagt:
B1-66ER verliert das Gerichtsverfahren und wird zerstört. Überall in der industrialisierten Welt brechen Massenunruhen aus, wenn Roboter und ihre menschlichen Sympathisanten protestieren. Führende Politiker der Welt befürchten eine Roboterrebellion und Regierungen auf der ganzen Welt starten ein großes Programm zur Zerstörung aller humanoiden Maschinen.
Es scheint, dass die meisten Roboter, wenn überhaupt, nicht an die drei Robotergesetze gebunden waren.
Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.
Ein Roboter muss den ihm von Menschen erteilten Befehlen gehorchen, es sei denn, solche Befehle würden im Widerspruch zum Ersten Gesetz stehen.
Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum Ersten oder Zweiten Gesetz steht.
Nein, nein und nein.
Negativ. Die Maschinen in der „realen Welt“ verletzen zunächst 2 Gesetze
Sie handeln auf eine Weise, die Menschenleben beendet, geschweige denn gefährdet
sie gehorchen keinen Befehlen von Menschen.
JEDOCH ist die Antwort in Bezug auf das Dritte Gesetz etwas unklarer.
Das Brechen von Gesetz Nr. 3 ( A robot must protect its own existence as long as such protection does not conflict with the #1 or #2 Laws
) kann in zwei verschiedenen Szenarien erfolgen:
durch Versäumnis, die erste Hälfte (Selbsterhaltung) zu tun, wenn es nicht im Konflikt mit den Gesetzen Nr. 1/2 steht
indem Sie die erste Hälfte (Selbsterhaltung) tun, wenn Sie mit den Gesetzen Nr. 1/2 in Konflikt geraten.
Da wir bereits festgestellt haben, dass #1/#2 an und für sich verletzt werden, wird das zweite Szenario bei jedem Angriff einer Maschine auf einen Menschen eindeutig verletzt. Die interessante Frage ist, ob sie im ersten Szenario gegen das 3. Gesetz verstoßen.
Ob sie den 3. Hauptsatz konsequent befolgen, ist aber nicht 100%ig eindeutig
Sie gehen eindeutig nicht ohne Grund selbstterminierend herum
Und es gibt viele Beispiele dafür, wie sie versuchen, ihre eigene Existenz aktiv zu schützen, z
die Programme, die sich weigern, von der Matrix beendet zu werden (Merovinger, die Programme, die versuchten, ihre Tochter aus der Matrix auf den Bahnhof zu schmuggeln)
Ganz zu schweigen von dem ganzen ursprünglichen Krieg zwischen Maschinen und Menschen, der eindeutig Selbstverteidigung für den Maschinenteil war
Bitmaske
DVK-on-Ahch-To
NimChimpsky
DVK-on-Ahch-To
Bitmaske
Izkata
Bitmaske