In Asimovs Kurzgeschichte Evidence gibt es einen starken Hinweis darauf, dass Stephen Byerley ein Roboter ist. In der nächsten Geschichte der Serie The Evitable Conflict zeigt er jedoch einen Mangel an Verständnis dafür, wie Roboter funktionieren und „denken“ auf einem Niveau, das mich veranlasste, ihn als Menschen zu überdenken.
Wurde er jemals wieder erwähnt, in einer anderen Geschichte oder vielleicht von Asimov selbst? Wurde jemals bestätigt, ob er ein Roboter war oder nicht, oder war es der Fantasie der Leser überlassen?
In „Evidence“ achtet Asimov ausgesprochen darauf, nicht zu verraten, ob Byerley ein Roboter ist, und keine Beweise auf die eine oder andere Weise zu hinterlassen. Diese Geschichte ist sehr ähnlich wie ein Mysterium aufgebaut. Wir haben Hinweise, aber keinen aussagekräftigen Hinweis, keinen Protagonisten, um die Handlung am Ende aufzudecken. Oder wir? Susan Calvin ist sehr Asimovs Heldin, also ist ihr Wort nach mysteriösen Konventionen das Wort des Autors. Auf die Frage, ob Byerley ein Roboter war, antwortet sie
Oh, es gibt keine Möglichkeit, alles herauszufinden. Ich glaube, er war es. Aber dann, […] welchen Unterschied würde es machen?
Da haben Sie es also: Es ist sehr wahrscheinlich, dass Byerley ein Roboter war, aber das ist nicht der Punkt der Geschichte . Unter dem Geheimnis, das in Science-Fiction verpackt ist, ist dies eine Geschichte mit einer Moral – dass es keine Rolle spielt, ob Byerley ein Roboter war.
Ich stimme nicht zu, dass „The Evitable Conflict“ Byerley als missverstandene Roboter zeigt. Er hat ein unvollkommenes Verständnis von ihnen. Er ist kein erfahrener Robopsychologe, genauso wenig wie die meisten Menschen erfahrene Psychologen sind. Susan Calvin ist eine Expertin und kann die Maschinen besser verstehen als Byerley.
Die Maschinen wenden das an, was Asimov später das nullte Gesetz nennen würde . In Susan Calvins Worten in „The Evitable Conflict“:
Keine Maschine darf der Menschheit schaden; oder durch Untätigkeit zulassen, dass die Menschheit Schaden nimmt.
In „The Evitable Conflict“ ist dies kein zusätzliches Gesetz, sondern die Wahrnehmung des Ersten Gesetzes durch die Maschinen. Im Gegensatz zu den meisten Robotern, die normalerweise mit einzelnen Menschen interagieren, behandeln die Maschinen die Menschheit als Ganzes, und daher wird ihr Potenzial nach dem Ersten Gesetz nicht durch die Summe des Schadens bestimmt, den sie einigen wenigen einzelnen Menschen zufügen, sondern durch die Summe des Schadens sie verursachen allen Menschen. Darüber hinaus ist ihre Erfahrung von einzelnen Menschen entfernt, und die Wahrnehmung von Robotern von Menschen ist sehr ähnlich wie Empathie, so dass individuelle Schäden etwas sind, das sie aus der Ferne sehen und dem sie wenig Beachtung schenken. Diese Effekte sind für Susan Calvin offensichtlich, aber wenn Byerley ein Roboter wäre, wären sie ihm fremd, fast unvorstellbar.
Übrigens, wenn Sie „Evidence“ aufmerksam lesen, werden Sie feststellen, dass Byerley, wie auch der Autor, sehr darauf bedacht ist, nicht direkt zu sagen, dass er kein Roboter ist. Er wird Überraschung oder Verachtung über die Idee zum Ausdruck bringen, erklären, dass er legal ein Mensch ist, leugnen, dass er als Roboter nachgewiesen werden kann – aber er sagt nicht direkt: „Ich bin kein Roboter“. Asimovianische Roboter sind sicherlich in der Lage zu lügen , aber das ist nicht ihr normales Verhalten, und Byerley, wenn er ein Roboter ist, ist da keine Ausnahme. Die Maschinen hingegen haben dank ihrer Distanzierung von einzelnen Menschen keine Skrupel, einen anzulügen. Dies ist eine weitere Hürde für Roboter-Byerleys Verständnis der Maschinen.
Wenn ich mich richtig erinnere, wird in der Serie Robots and Empire irgendwann auf Byerleys Robotik angespielt . Alles, was sagt, ist, dass die Geschichte ihn als (wahrscheinlichen) Roboter in Erinnerung behalten wird. Seltsamerweise liefert Robots and Empire das beste Argument dagegen, dass Byerley ein Roboter ist: R. Daneel Olivaw ist offiziell der erste humaniforme Roboter, und sein Design und seine Konstruktion waren eine ziemliche Meisterleistung, daher ist es überraschend, dass ein anderer humaniformer Roboter, der ungefähr so hoch entwickelt ist, Jahrhunderte früher gebaut worden wäre. Die Höhlen aus Stahl, das R. Daneel Olivaw vorstellt, wurde 1954 veröffentlicht, 8 Jahre nach „Evidence“; Diese kleine Abweichung ist also entschuldbar. Es wird auch durch die Tatsache minimiert, dass Byerley ein Einzelfall war, der von einem einsamen genialen Erfinder entworfen wurde (eine Rolle, auf die Asimov viel Wert legte, ziemlich seltsam für einen Wissenschaftler).
Ich glaube nicht, dass Asimov jemals explizit gesagt hat, ob Byerley ein Roboter ist. Ich denke, er würde den obigen Worten von Susan Calvin vollkommen zustimmen.
Er war wirklich ein Roboter! Wenn Sie die Einleitung zum Buch Robot Visions lesen (meine Ausgabe ist von 1994), sagt Asimov:
„Es ist die erste Geschichte, in der ich einen humanoiden Roboter verwendet habe. Stephen Byerly, der fragliche humanoide Roboter (obwohl ich in der Geschichte nicht absolut klar mache, ob er ein Roboter ist oder nicht), repräsentiert meinen ersten Ansatz gegenüber R. Daneel Olivaw, dem humaniformen Roboter, der in einer Reihe meiner Romane vorkommt.“
Es gab nie eine Bestätigung seines Status in beide Richtungen, obwohl Asimov andeutet, dass Susan Calvin glaubt, dass er ein Roboter war.
Sein Unverständnis in The Evitable Conflict ist verständlich. Roboter kennen und verstehen NICHT sofort jede Aktion, die ein anderer Roboter ausführt. Wenn ein Roboter einer langen, verschlungenen Logikkette gefolgt ist, um zu einer Schlussfolgerung zu gelangen, ist es NICHT selbstverständlich, dass ein anderer Roboter ihm ohne Hilfe folgen kann.
Roboter machen im Großen und Ganzen keine intuitiven Sprünge. Wäre Byerley ein Roboter, würde er wahrscheinlich sofort „Die Maschinen haben es geschafft“ als die Quelle des menschlichen Schadens abtun (da die Maschinen Menschen keinen Schaden zufügen können) und seine logischen Pfade würden keine Analyse auf diesen Pfaden zulassen.
Wäre er ein Roboter, wäre es auch möglich, dass Jahre der Politik und der Kompromisse, des intensiven Umgangs mit dem menschlichen Faktor, seine Fähigkeit beeinträchtigen würden, den Handlungen eines anderen Roboters zu folgen, dem diese Erfahrung fehlt.
Schließlich sind die Optimierungscomputer, die The Evitable Conflict antreiben, VIEL leistungsfähiger als jeder einzelne Roboter und verfügen über einen viel breiteren und feineren Datensatz. Robot-Byerley wäre nicht in der Lage gewesen, so gut zu computern wie sie, und hätte nicht den gleichen Ausgangspunkt gehabt (da ihm Daten fehlten), was bedeutet, dass seine Fähigkeit, ihren logischen Pfad nachzuahmen, erheblich beeinträchtigt worden wäre.
Oder, weißt du, er hätte ein Mensch sein können.
b_jonas