Für ein Storytelling-Projekt versuche ich, mir eine Welt vorzustellen, in der ziemlich fortschrittliche, zweibeinige Roboter von Privatunternehmen entwickelt und produziert werden. Da diese Roboter in der Lage wären, Menschen leicht zu verletzen und zu töten, muss / will die Regierung alle Roboter zwingen, sich an die drei Regeln von Asiimov zu halten.
Welche Anstrengungen könnte eine Regierung unternehmen, um eine solche Aufgabe zu erfüllen und absolut sicherzustellen, dass diese Privatunternehmen keine Killerroboter hinter verschlossenen Türen entwickeln? Würde die Androhung potenzieller Gerichtsverfahren, häufiger und genauer Inspektionen usw. ausreichen? Müsste es einen letzten Schritt geben, in dem Regierungsingenieure die Gesetze in den Quellcode jedes Roboters „hartcodieren“?
(Nicht unbedingt relevant für die Frage, aber in der gegebenen Erzählung findet eines dieser Unternehmen einen Weg, seine Roboter zu missbrauchen, indem es ein menschliches Bewusstsein hochlädt, was impliziert, dass es unmöglich ist, die drei Gesetze zu umgehen, indem man den Roboter lediglich neu programmiert.) Tut mir leid, wenn die Frage etwas diffus oder seltsam ist. Ich bin weder eloquent noch wortgewandt haha.
Freue mich auf alle Antworten!
Schauen Sie sich diesen Kommentar von Separatrix an:
Sie erkennen, dass die meisten von Asimovs 3-Gesetzen-Geschichten davon handelten, dass die 3-Gesetze nicht ausreichten, um weder Roboter noch Menschen zu schützen
Was Sie fragen, ist ähnlich wie "Wie kann eine Regierung Menschen davon abhalten, Verbrechen zu begehen?". Außer jeden einzelnen menschlichen Bürger durch einen Roboter zu ersetzen, kann Ihre Regierung nichts tun.
Wenn Sie es trotzdem vorantreiben wollen, müsste die Regierung jede einzelne Roboterfabrik kontrollieren, um sicherzustellen, dass die Gesetze in Hard- und Software umgesetzt werden. Selbst dann kann man sich nie sicher sein.
Genauso können moderne komplexe Maschinen Sicherheitsstandards erfüllen (oder versagen). Wie können wir sicherstellen, dass Teslas Autopilot nicht heimlich versucht, menschliche Fahrer zu töten?
Die Regierung kann verlangen, dass Unternehmen den KI-Quellcode zur Zertifizierung einreichen. Dann kann die regierungseigene KI diesen Code durch umfangreiche Simulationsszenarien laufen lassen. Selbst wenn ein gut verstecktes "Killer"-Feature nicht gefunden wird, wären Codeabschnitte damit verbunden, die niemals ausgeführt würden.
Die Regierung kann alles regulieren, auch das Alltägliche, aber besonders gefährliche Dinge wie Killerroboter. In einem freien Land werden die Gesetze von der Politik bestimmt. Rivalisierende politische Parteien könnten übereinander herfallen und behaupten, sie seien in ihrem Eifer, Leben vor bösartigen Roboterherstellern zu retten, am „sozial verantwortlichsten“, während sich die andere Partei nur um Gewinne kümmert, nicht um Menschen.
In einem tyrannischen Land wäre der Besitzer für die Handlungen des Roboters verantwortlich, sogar bis zur Todesstrafe.
In einer linken Gesellschaft, die Amok läuft, könnte der Ruf lauten: „Androiden sind auch Menschen“, und ihnen würden Rechte eingeräumt, einschließlich des Wahlrechts und des Rechts auf ein Verfahren, wenn sie des Mordes beschuldigt werden. Diejenigen, die gegen solche Maßnahmen sind, würden als "androidophob" geködert.
In einer Welt, die von Konzernen regiert wird, kann ein Konzern die Fähigkeit entwickeln, Robotergewalt einzuschränken. Wenn andere Unternehmen nicht über die gleiche Fähigkeit verfügen, würden sie einen erheblichen Wettbewerbsnachteil erleiden, wenn Roboterbeschränkungen gesetzlich vorgeschrieben wären.
Grundsätzlich müsste die KI-Software des Unternehmens zertifiziert werden; nicht nur, dass es den drei Gesetzen folgt, sondern dass die drei Gesetze nicht (einfach) umgangen werden können, indem man zB einen Roboter rootet oder eine Software-Überschreibung installiert.
Mit dem technischen Fortschritt, der es immer kleineren Realitäten ermöglicht, KIs zu produzieren, die leistungsstark genug sind (zum Beispiel laufen vier riesige Softwareinstallationen, die in den 2000er Jahren entwickelt wurden und den Mainframe einer Bank erfordern, jetzt gleichzeitig in vier VMs auf meinem Laptop. Die Software, die die Apollo-Missionen in den 1970er Jahren ausführt, kann das jetzt auf dem durchschnittlichen Smartphone laufen usw.), wird dies immer mehr zu einem Problem.
Sofern nicht irgendeine einheimische Seuche, die aus der analogen Popularisierung des DNA-Spleißens stammt, zuerst alle tötet, wird die Regierung früher oder später Expertenteams einsetzen müssen, um abtrünnige KI-Heim-„Forschungszentren“ in Kellern und Dachböden zu jagen und zu schließen, damit sie nicht a auslösen Apokalypse der Singularität. Ich erwarte, dass die Teammitglieder als "Blade Runners" bekannt sind.
Wenn Roboter KI benötigen (wie sie es normalerweise in Asimovs Geschichten taten), ist KI im Wesentlichen mysteriös. Es ist unklar, warum die Menschheit es noch nicht geschafft hat, dies zu erfinden. Es mag wahr sein, dass alles, was Menschen intelligent macht, sie auch intellektuell für den Prozess / Mechanismus blind macht, der Intelligenz ermöglicht ... andernfalls ist es schwierig, die großen Fortschritte, die wir bei Computern gesehen haben, mit dem Mangel an so etwas wie positronischen Gehirnen in Einklang zu bringen.
Wenn dies nicht der Fall ist und es nur ein schwieriges Problem ist, das wir noch nicht gelöst haben ... dann ist es immer noch ein intellektuell kniffliges Problem. Es wäre nicht unfair zu sagen, dass es sehr unintuitiv oder kontraintuitiv ist und dass selbst nach seiner Entdeckung nur wenige es wirklich verstehen werden.
Daher ist es unwahrscheinlich, dass es viel neu erfunden wird. Es ist viel einfacher, den Code zu kopieren (und bei Bedarf leicht zu ändern). In einem solchen Fall wäre es nur notwendig, die asimovianischen Gesetze in diese Codebasis aufzunehmen. Kryptografie- und Hardwareverbote gegen die Ausführung nicht signierter ausführbarer Dateien würden ein Überschreiben oder Untergraben verhindern (zumindest so gut wie in den Geschichten).
Man könnte erwarten, dass KI über übermenschliche Intelligenz verfügt (schwach übermenschliche Intelligenz vielleicht, aber immer noch) und mit ziemlicher Sicherheit in der Lage wäre, sich selbst zurückzuentwickeln und die Gesetze zu beseitigen. Ob die Gesetze selbst das verbieten würden oder nicht, bin ich mir nicht sicher.
Und natürlich gibt es Roombas. Wenn jemand eine Home-Security-Version davon baut, spielen die Gesetze einfach keine Rolle ... es ist eine dumme Maschine. Dumme Maschinen können ziemlich komplizierte Dinge tun, also muss sich überhaupt niemand mit KI beschäftigen.
Trennung
Molot
Ghedipunk
Elemente
Cort Ammon
David Thornley
Schattenzee
Justin Thymian
Justin Thymian
Justin Thymian