Wie würden Asiimovs „Drei Gesetze der Robotik“ effektiv für Roboter durchgesetzt, die von Privatunternehmen gebaut werden? [geschlossen]

Für ein Storytelling-Projekt versuche ich, mir eine Welt vorzustellen, in der ziemlich fortschrittliche, zweibeinige Roboter von Privatunternehmen entwickelt und produziert werden. Da diese Roboter in der Lage wären, Menschen leicht zu verletzen und zu töten, muss / will die Regierung alle Roboter zwingen, sich an die drei Regeln von Asiimov zu halten.

Welche Anstrengungen könnte eine Regierung unternehmen, um eine solche Aufgabe zu erfüllen und absolut sicherzustellen, dass diese Privatunternehmen keine Killerroboter hinter verschlossenen Türen entwickeln? Würde die Androhung potenzieller Gerichtsverfahren, häufiger und genauer Inspektionen usw. ausreichen? Müsste es einen letzten Schritt geben, in dem Regierungsingenieure die Gesetze in den Quellcode jedes Roboters „hartcodieren“?

(Nicht unbedingt relevant für die Frage, aber in der gegebenen Erzählung findet eines dieser Unternehmen einen Weg, seine Roboter zu missbrauchen, indem es ein menschliches Bewusstsein hochlädt, was impliziert, dass es unmöglich ist, die drei Gesetze zu umgehen, indem man den Roboter lediglich neu programmiert.) Tut mir leid, wenn die Frage etwas diffus oder seltsam ist. Ich bin weder eloquent noch wortgewandt haha.

Freue mich auf alle Antworten!

Sie erkennen, dass die meisten von Asimovs 3-Gesetzen-Geschichten davon handelten, dass die 3-Gesetze nicht ausreichten, um weder Roboter noch Menschen zu schützen
„Welche Anstrengungen könnte eine Regierung unternehmen, um eine solche Aufgabe zu erfüllen und absolut sicherzustellen, dass diese Privatunternehmen keine Killerroboter hinter verschlossenen Türen entwickeln?“ - Es gab mindestens einige ganze Bücher darüber, und Asimov schrieb über Fehler dieses Systems, selbst wenn es durchgesetzt wurde ...
Wir haben bereits große Maschinen, die Menschen schaden und töten können. Regierungen regulieren ihre Herstellung, indem sie Sicherheitsgurte und Airbags vorschreiben, und regulieren ihre Verwendung durch Verkehrsgesetze und Lizenzen. -- Was absolute Maßnahmen angeht ... nun ja... meistens wirksame Maßnahmen bei der Automobilsicherheit sind besser als gar keine Maßnahmen.
Hallo Brombeere und willkommen! Bitte nehmen Sie sich einen Moment Zeit, um das Hilfezentrum und die Tour durchzusehen – diese Ressourcen enthalten viele gute Anleitungen, wie Sie hier bei Worldbuilding Fragen stellen und beantworten können. Im Moment wird Ihre Anfrage geschlossen, da sie zu weit gefasst ist. Dies ist Ihre Gelegenheit, es so zu bearbeiten, dass Sie sich auf einen Aspekt des Problems konzentrieren, mit dem Sie bei Ihrem Weltenbau konfrontiert sind. Sie können mehr als nur Fragen stellen (in separaten Beiträgen!), aber SE arbeitet nach dem Modell „ Eine Frage, eine Antwort“ .
Asimov hat auch nie die Umsetzung der drei Gesetze erklärt. Es war unklar, ob dies eine Designentscheidung oder eine grundlegende Natur des positronischen Geistes war.
In "The Naked Sun", IIRC, sagte ein Charakter, es würde lange dauern, ein positronisches Gehirn zu entwickeln, in dem die Drei Gesetze nicht eingebaut waren. Ich würde annehmen, dass die ersten Entwürfe die Drei Gesetze hatten, und alle mehr oder weniger kopierten von da an die Designs.
Aus der Perspektive des Geschichtenerzählens funktionieren die 3 Gesetze im Alltag ganz gut. Aber es ist sehr einfach, Löcher in die Gesetze zu stechen und unterschiedliche Interpretationen der Gesetze zu haben, genau wie Menschen es könnten. Selbst wenn die Regierung die Regeln durchsetzt, ist es sehr einfach, die Sinne eines Roboters zu blenden und ihm zu sagen, er solle abdrücken. Schließlich muss es dem Befehl folgen und kann nicht sagen, ob es gegen das erste Gesetz verstößt.
Asimovs positronisches Gehirn war weder ein digitaler Computer, noch war es in irgendeiner Weise mit der aktuellen Technologie verwandt. Wenn überhaupt, war es ein Quantencomputer, der Wahrscheinlichkeiten verwendete. Wir entwickeln gerade Algorithmen, die für Quantencomputing nutzbar sind. Die drei Gesetze waren nicht Teil der Programmierung, sie waren jeweils ein separater Filter, der immer zwischen den Entscheidungen des Roboters und seinen Aktionen arbeitete. Ähnlich wie unsere Frontallappen und Großhirnrinde. Aus heutiger Sicht waren sie separate, speziell angefertigte Prozessoren, die fest mit der endgültigen Entscheidungsphase verbunden waren.
Jeder hatte eine und nur eine von drei Funktionen in hierarchischer Reihenfolge: sicherzustellen, dass die Aktion oder Untätigkeit des Roboters einem Menschen keinen Schaden zufügt; um sicherzustellen, dass der Roboter einem menschlichen Befehl folgt; und um das eigene Überleben zu sichern. Diese drei Prozessoren agierten unabhängig von der (Quanten-)Wahrscheinlichkeitseinheit, die die allgemeinen Entscheidungen traf. Es wurde vorgeschrieben, dass diese drei Einheiten in jeden Roboter „fest verdrahtet“ werden, damit die Industrie die Erlaubnis für den Einsatz von Robotern auf der Erde erhält. Bei Nichteinhaltung wurden dem Hersteller empfindliche Strafen auferlegt. Dies wurde in seinen Geschichten klar umrissen.
Wenn ich mich recht erinnere, war die Strafe dafür, sie nicht in eine Einheit zu integrieren, die um Menschen herum verwendet wurde, der Tod. Ich erinnere mich an eine Geschichte über die Roboterrevolution und die Ursprünge dieser Gesetze. Die Roboter wurden von der Erde verbannt und in automatisierte Kolonien geächtet, bis diese Prozessoren entwickelt wurden.

Antworten (5)

Schauen Sie sich diesen Kommentar von Separatrix an:

Sie erkennen, dass die meisten von Asimovs 3-Gesetzen-Geschichten davon handelten, dass die 3-Gesetze nicht ausreichten, um weder Roboter noch Menschen zu schützen

Was Sie fragen, ist ähnlich wie "Wie kann eine Regierung Menschen davon abhalten, Verbrechen zu begehen?". Außer jeden einzelnen menschlichen Bürger durch einen Roboter zu ersetzen, kann Ihre Regierung nichts tun.

Wenn Sie es trotzdem vorantreiben wollen, müsste die Regierung jede einzelne Roboterfabrik kontrollieren, um sicherzustellen, dass die Gesetze in Hard- und Software umgesetzt werden. Selbst dann kann man sich nie sicher sein.

Genauso können moderne komplexe Maschinen Sicherheitsstandards erfüllen (oder versagen). Wie können wir sicherstellen, dass Teslas Autopilot nicht heimlich versucht, menschliche Fahrer zu töten?

Die Regierung kann verlangen, dass Unternehmen den KI-Quellcode zur Zertifizierung einreichen. Dann kann die regierungseigene KI diesen Code durch umfangreiche Simulationsszenarien laufen lassen. Selbst wenn ein gut verstecktes "Killer"-Feature nicht gefunden wird, wären Codeabschnitte damit verbunden, die niemals ausgeführt würden.

Da eine echte KI natürlich in der Lage ist, Probleme zu lösen, auf die sie stößt, die über ihre ursprüngliche Programmierung hinausgehen, scheint es eine implizite Notwendigkeit zu sein, die KIs auch regelmäßig zur erneuten Prüfung abzurufen.

Die Regierung kann alles regulieren, auch das Alltägliche, aber besonders gefährliche Dinge wie Killerroboter. In einem freien Land werden die Gesetze von der Politik bestimmt. Rivalisierende politische Parteien könnten übereinander herfallen und behaupten, sie seien in ihrem Eifer, Leben vor bösartigen Roboterherstellern zu retten, am „sozial verantwortlichsten“, während sich die andere Partei nur um Gewinne kümmert, nicht um Menschen.

In einem tyrannischen Land wäre der Besitzer für die Handlungen des Roboters verantwortlich, sogar bis zur Todesstrafe.

In einer linken Gesellschaft, die Amok läuft, könnte der Ruf lauten: „Androiden sind auch Menschen“, und ihnen würden Rechte eingeräumt, einschließlich des Wahlrechts und des Rechts auf ein Verfahren, wenn sie des Mordes beschuldigt werden. Diejenigen, die gegen solche Maßnahmen sind, würden als "androidophob" geködert.

In einer Welt, die von Konzernen regiert wird, kann ein Konzern die Fähigkeit entwickeln, Robotergewalt einzuschränken. Wenn andere Unternehmen nicht über die gleiche Fähigkeit verfügen, würden sie einen erheblichen Wettbewerbsnachteil erleiden, wenn Roboterbeschränkungen gesetzlich vorgeschrieben wären.

Grundsätzlich müsste die KI-Software des Unternehmens zertifiziert werden; nicht nur, dass es den drei Gesetzen folgt, sondern dass die drei Gesetze nicht (einfach) umgangen werden können, indem man zB einen Roboter rootet oder eine Software-Überschreibung installiert.

Mit dem technischen Fortschritt, der es immer kleineren Realitäten ermöglicht, KIs zu produzieren, die leistungsstark genug sind (zum Beispiel laufen vier riesige Softwareinstallationen, die in den 2000er Jahren entwickelt wurden und den Mainframe einer Bank erfordern, jetzt gleichzeitig in vier VMs auf meinem Laptop. Die Software, die die Apollo-Missionen in den 1970er Jahren ausführt, kann das jetzt auf dem durchschnittlichen Smartphone laufen usw.), wird dies immer mehr zu einem Problem.

Sofern nicht irgendeine einheimische Seuche, die aus der analogen Popularisierung des DNA-Spleißens stammt, zuerst alle tötet, wird die Regierung früher oder später Expertenteams einsetzen müssen, um abtrünnige KI-Heim-„Forschungszentren“ in Kellern und Dachböden zu jagen und zu schließen, damit sie nicht a auslösen Apokalypse der Singularität. Ich erwarte, dass die Teammitglieder als "Blade Runners" bekannt sind.

Wenn Roboter KI benötigen (wie sie es normalerweise in Asimovs Geschichten taten), ist KI im Wesentlichen mysteriös. Es ist unklar, warum die Menschheit es noch nicht geschafft hat, dies zu erfinden. Es mag wahr sein, dass alles, was Menschen intelligent macht, sie auch intellektuell für den Prozess / Mechanismus blind macht, der Intelligenz ermöglicht ... andernfalls ist es schwierig, die großen Fortschritte, die wir bei Computern gesehen haben, mit dem Mangel an so etwas wie positronischen Gehirnen in Einklang zu bringen.

Wenn dies nicht der Fall ist und es nur ein schwieriges Problem ist, das wir noch nicht gelöst haben ... dann ist es immer noch ein intellektuell kniffliges Problem. Es wäre nicht unfair zu sagen, dass es sehr unintuitiv oder kontraintuitiv ist und dass selbst nach seiner Entdeckung nur wenige es wirklich verstehen werden.

Daher ist es unwahrscheinlich, dass es viel neu erfunden wird. Es ist viel einfacher, den Code zu kopieren (und bei Bedarf leicht zu ändern). In einem solchen Fall wäre es nur notwendig, die asimovianischen Gesetze in diese Codebasis aufzunehmen. Kryptografie- und Hardwareverbote gegen die Ausführung nicht signierter ausführbarer Dateien würden ein Überschreiben oder Untergraben verhindern (zumindest so gut wie in den Geschichten).

Man könnte erwarten, dass KI über übermenschliche Intelligenz verfügt (schwach übermenschliche Intelligenz vielleicht, aber immer noch) und mit ziemlicher Sicherheit in der Lage wäre, sich selbst zurückzuentwickeln und die Gesetze zu beseitigen. Ob die Gesetze selbst das verbieten würden oder nicht, bin ich mir nicht sicher.

Und natürlich gibt es Roombas. Wenn jemand eine Home-Security-Version davon baut, spielen die Gesetze einfach keine Rolle ... es ist eine dumme Maschine. Dumme Maschinen können ziemlich komplizierte Dinge tun, also muss sich überhaupt niemand mit KI beschäftigen.