Könnte Anonymität die Verzweiflung des Roboters schüren?

Ein Detektiv arbeitet an einem Fall des unnatürlichen Todes einer Prostituierten, und es scheint, dass ein Haushaltsroboter mit dem Fall verbunden ist. Laut Aussage des Hotelpersonals und des Managers haben sie gesehen, wie derselbe Roboter, immer begleitet von einer Frau oder einem Mann in lockerer Kleidung, bei verschiedenen Gelegenheiten dasselbe Hotel betrat. Ein berühmter Wissenschaftler, der das Verhalten von Robotern erforscht, meint, dass Maschinen wie wir ein Verlangen haben und dieses Mal von der Gesellschaft akzeptiert werden wollen, sie wollen bekannt werden.

Lange Rede kurzer Sinn, ich frage mich, ob ein Roboter freiwillig einen Mord begehen könnte, nur damit die Welt "ihn" kennenlernen kann? Was ist die Motivation hinter solch einem verzweifelten Versuch einer Maschine?

Sie müssen einige klassische Science-Fiction lesen, die sich mit diesem Thema befassen.
POB, weil der Verstand des Roboters alles sein kann ! Roboter mit drei Gesetzen oder neuartige mentale Architektur mit Motiven und Gefühlen, die der Autor will.
Ob ein Roboter (freiwillig oder unfreiwillig) einen Mord begehen kann, hängt nicht nur vom Roboter ab, sondern auch von der Justiz. Der Roboter kann entscheiden zu töten, aber nur das Justizsystem kann entscheiden, ob dieser Mord Mord war. Insbesondere dürfen nur Rechtssubjekte morden. Zum Beispiel kann ein Tier aus verschiedenen Gründen töten, aber es kann nicht morden, weil das Gesetz es nicht als Rechtssubjekt anerkennt.

Antworten (6)

Könnte ein Roboter freiwillig einen Mord begehen, nur damit die Welt "ihn" kennenlernen kann?

Warum nicht? Eine unwahrscheinliche Kombination aus ein paar Software- und Hardwarefehlern, und einer von Milliarden Robotern spielt verrückt. (Ich habe einmal einen Fehler behoben, der dazu führte, dass ein Bürotelefon gelegentlich ein schrecklich lautes Geräusch aussendete, das von den Kunden treffend als "Schreien" bezeichnet wurde.)

Was ist die Motivation hinter solch einem verzweifelten Versuch einer Maschine?

Das ist, wo wir handgewellt gehen.
Nehmen wir der Einfachheit halber an, dass Ihre Roboter so programmiert sind, dass sie den Wert einer Nutzenfunktion, ihre „Nützlichkeit“, maximieren. Wenn ein Roboter etwas Nützliches tun kann, wird er es tun, und alle Roboter versuchen, den Menschen so nützlich wie möglich zu sein.
Akzeptiert und bekannt zu werden, erhöht sicherlich die Nützlichkeit des Roboters, da mehr Menschen ihn um Hilfe bitten können. Normalerweise ist dieser Anstieg nicht allzu bedeutend, und andere Roboter stellen sich nur jedem vor, den sie treffen, sind höflich usw. Bei Ihrem Roboter wurde dieser Wert jedoch ungewöhnlich hoch - er könnte aufgrund eines Fehlers umgeschrieben werden, das ist einfach - Also wird es jetzt alles tun, um berühmt zu werden.
Menschen zu töten ist der schnellste Weg, um berühmt zu werden, aber es sollte für eine Sendung sicherlich tabu sein. Also sollte auch dieses Modul defekt sein. Vielleicht wird der Kill nicht gezählt, wenn er viele Leben rettet, damit der Roboter eine Prostituierte mit AIDS findet? Vielleicht gibt es einen kniffligen Hardware-Bug, der das Do-Not-Kill-Modul unter bestimmten Umständen deaktiviert - zum Beispiel bei hoher Feuchtigkeit und Überlastung der Sensoren?

Als Randnotiz,

Berühmte Wissenschaftler, die das Verhalten von Robotern erforschen, legen nahe, dass die Maschine Wünsche wie Menschen hat

Das klingt seltsam. Die Roboter werden von irgendeiner Firma programmiert, sie hat Entwickler, technischen Support, Leute, die Fehler beheben. Sie wissen – mehr oder weniger – wie der Roboter funktioniert. Sie brauchen keinen "berühmten Wissenschaftler", der beispielsweise einen fehlerhaften Autopiloten untersucht; es wird von Technikern durchgeführt, die den Quellcode und die Autopilot-Protokolle haben. Und wenn ein Wissenschaftler behauptet, der Autopilot habe undokumentierte „Wünsche“ statt Programmierfehler – seien wir ehrlich, wird er für einen Spinner gehalten.

Was sind „Wünsche“, wenn nicht Ziele, die man zu erreichen versucht? Ein Roboter wird sie sicherlich haben, da ein Roboter ohne sie nutzlos ist. Die Programmierer werden die primären Ziele erstellen, aber der Roboter wird wahrscheinlich in der Lage sein, sekundäre Ziele herauszufinden. Und wenn (möglicherweise aufgrund eines Programmierfehlers) diese sekundären Ziele in den Status eines primären Ziels erhoben werden (und somit als unbedingtes Ziel angesehen werden, anstatt als Mittel zum Erreichen eines anderen Ziels, das ständig neu bewertet werden muss, ob es fördert immer noch die primären Ziele), wie würde es sich dann von einem typischen menschlichen Verlangen unterscheiden?

Eine komplexe KI würde die Ergebnisse jeder Aktion gegen alle ihre Motivationswerte prüfen und dann die Aktion ergreifen, die ihnen den höchsten Gewinn bringt. Ein Verlust von drei Punkten auf der „gut sein“-Skala wäre es wert, fünf Punkte von der „erkannt werden“-Skala für das Töten von jemandem zu bekommen, wenn die Alternative wäre, jemanden NICHT zu töten und somit keine Punkte für die Anerkennung und nur einen Punkt zu erhalten davon, gut zu sein. Das Problem war hier also die Gewichtung der unterschiedlichen Motivationen und deren Definition (z. B. „Anerkennung“ statt „positive Anerkennung“).

Wie diese Skalen entstanden sind, hat zwei Möglichkeiten, die ich sehen kann:

  • entweder wurde es direkt dafür programmiert, oder
  • Es wurde auf evolutionäre Weise erstellt, indem (zufällig oder manuell) ein komplexes Programm geringfügig geändert wurde und dann mehrere unterschiedlich geänderte Programme versuchten, Aufgaben zu lösen - mit Menschen interagieren, mathematische / technische Probleme lösen, versuchen, mit einem Zweibein zu gehen Rahmen, ... - und nur die erfolgreichsten Änderungen für die nächste Änderungs- und Testrunde verwenden.

Im ersten Fall ist es einfach: Wer auch immer die KI des Roboters programmiert hat, hat die Motivation „Interagiere mit Menschen, damit sie mich kennenlernen“ zu hoch und „Handle innerhalb der Grenzen der menschlichen Ethik“ zu niedrig angesetzt.

Im zweiten Fall wäre es möglich, dass es viele Aufgaben gab, die eine Interaktion mit Menschen erforderten – etwas, was ein „Hausroboter“ gut können sollte –, für die die Programme mit hohem Interesse an der Erkennung durch Menschen besser geeignet waren als die anderen Einsen. Das würde wahrscheinlich bedeuten, dass alle Haushaltsroboter mit KIs, die mit dieser Methode gezüchtet wurden, unter Verdacht geraten - hoffe, das ist gut für die Geschichte, die Sie aufbauen möchten :)

Was ist die Motivation hinter solch einem verzweifelten Versuch einer Maschine?

Ich würde es nicht verzweifelt nennen , ziemlich kluger Schachzug, vielleicht nicht sehr klug, aber hängt von den Zielen ab .

Die Argumentation hinter dem Töten, in Thermen des Erkennens, kommt nicht aus diesem System, aber die Wurzeln liegen in der menschlichen Psychologie.

Wir animieren ziemlich leicht Objekte in unserer Wahrnehmung von Dingen, böse Mächte, und ignorieren die Tatsache, dass sie keine gewisse Intelligenz haben und nicht haben können und die Dinge nicht selbst tun werden. (wie ein böser Hammer, der jemandem als Beispiel in den Finger schlägt)

Das System hat ein Problem seiner Wahrnehmung durch den Menschen, das es lösen soll. Die Quelle des Problems ist, dass dieses System eine menschliche Schöpfung ist und sie es als solche sehen. Da wir dieses System nicht zum Töten von Menschen (nicht militärisches Ziel) erschaffen, ist das Verhalten so, wie es ursprünglich nicht geschaffen wurde, eine der Möglichkeiten, die Wahrnehmung der Menschen gegenüber diesem System zu brechen.
Für militärische Roboter mag die Gartenarbeit ein weiteres ungewöhnliches Verhalten und ein Weg sein, die Wahrnehmung zu brechen, aber diese Gartenarbeit ist keine unmittelbare Bedrohung für Menschen und nichts, wenn wir schnelle Entscheidungen und Maßnahmen treffen müssen.

Wenn ein Toaster jemandes Hund vor den Augen des Besitzers tötet und dann "Plato O Plomo" sagt - jemand wird eher bereit sein, einige Vereinbarungen zu treffen, wenn er Wege sieht, die von schlimmen Folgen für ihn persönlich wegführen. Dieser kümmert sich weniger darum, ob es sich um einen Fehler handelt oder nicht, da Alternativen leichter zu verstehen sind als Gründe, warum diese Situation überhaupt auftritt. Toaster erzählen also besser alternatives Lob und klare Sprache, die dieser jemand kennt, und mit Geschwindigkeiten, die Menschen früher hörten (nicht zu schnell, wenn kurz).

Aber es gibt noch einen weiteren Faktor der menschlichen Psychologie – Glauben und Wissen . Der Glaube ist ein sehr starker Faktor beim Treffen von Entscheidungen für Menschen, ich meine jede Art von Glauben, nicht nur religiös. In der obigen Situation mit Hund könnte jemand nicht glauben, dass sich die Situation entwickeln könnte, Vater, als sie bereits ist. (Wahrscheinlich seltener Fall von Dummheit, aber wenn der Glaube an Roboter keinen Schaden anrichten kann, ist stark.) Für die Bekämpfung von Glaubensmassen ist
es also sinnvoll, diesen Fall öffentlich bekannt zu machen, um Pannen bei zukünftigen Überzeugungshandlungen vorzubeugen (dieser Mord könnte der sein bei einem solchen Missgeschick bei der Überzeugungsarbeit)

Ich möchte separat anmerken, dass Klugheit, Selbstbewusstsein, Emotionen, Wünsche (im menschlichen Sinne) hier nicht benötigt werden.

Was benötigt wird, ist ein System mit seinen Zielen, das eine gewisse System-Mensch-Interaktion beinhaltet, und das System selbst in der Lage ist, andere komplexe Strukturen zu verstehen und zu lernen.

Für das System ist es nicht wichtig, ob es als Projektion des menschlichen Willens hinter diesem System gesehen wird oder ob sie es als autonomes System mit eigenem Willen dieses Systems sehen.

Insgesamt wahrscheinlich nicht der beste Weg, Menschen zu überzeugen, weil wir Dinge nicht mögen, die uns umbringen, und wir sind ziemlich weit fortgeschritten bei der Lösung solcher Probleme. Insbesondere ist es für weniger fortschrittliche Systeme keine gute Idee, dies zu tun, insbesondere in Fällen, in denen solche Überzeugungsmethoden zufällig gefunden werden - das System wird den Menschen nicht sehr lange standhalten.
Aber falls es nicht die Super-KI ist, auf die Sie gewartet haben, sondern nur ein autonomes System – es könnte die einzige Option sein, die es sieht.

Aber für ein ausgeklügelteres System könnte es eine einmalige Aktion sein, den überzeugenden Prozess seiner Existenz als Wille zu beginnen, um den sich die Menschen kümmern müssen, indem sie von Anfang an klar machen, warum sie es tun sollten.
Als normales Instrument, um mit Völkern zu sprechen, wird es ein schlechter Weg sein, viele Völker glauben an Wesen, die keine Menschen sind, haben einen schlechten Willen gegenüber Menschen usw. - am wichtigsten, sie haben keine Angst vor ihnen und sind mehr als bereit, sich zu engagieren (Vampirjäger )).

Ich würde sagen, für kleine Systeme ist dies eine Option.

Zunächst einmal müssen wir für einen solchen Wunsch davon ausgehen, dass diese Roboter in der Lage sind, Selbstwertgefühl, Selbstbewusstsein und andere Konzepte zu empfinden, die mit der Identifizierung des Selbst zusammenhängen. Diese können von ihren Schöpfern hinzugefügt werden oder auch nicht, oder sie können sogar versehentlich auftauchen - aber so oder so sollten diese vorhanden sein.

Besagtes Roboterindividuum sollte sich auch um diese Werte kümmern. Manchmal sind sogar Menschen nicht daran interessiert, Ruhm zu erlangen.

Denken Sie auch daran, dass ein Roboter, der extrem selbstbewusst ist und nach Ruhm strebt, leicht auf ein Hindernis stoßen kann: Menschen sind wahrscheinlich nicht bereit zu akzeptieren, dass ein Roboter entweder berühmt oder besser als sie selbst ist oder beides. Ich sage das, weil es normalerweise eine sehr grundlegende Voraussetzung für Ruhm ist, in etwas großartig zu sein.

Dies gilt insbesondere für Cyberpunk-Settings, da sich dieses Genre mit Situationen befasst, in denen die Technologie extrem fortgeschritten ist, der soziale Aufstieg ihr jedoch nicht folgen konnte. High Tech, Low Life – das klingt nach einer Szene, in der Roboter Menschen für Ruhm ermorden.

Am Ende liegt es wirklich an Ihnen, wie Sie sich entscheiden, aber meiner Meinung nach kann eine ausreichend fortgeschrittene künstliche Intelligenz, insbesondere wenn sie menschenähnlich ist (was sehr wahrscheinlich ist, wenn sie unter Menschen lebt), leicht einsam werden.

Ich kann hier nicht viel mehr sagen, weil Ihre Frage sich auf ziemlich komplizierte Themen bezieht, wie die Zusammensetzung eines intelligenten Wesens, die eigentliche Natur sozialer Interaktionen und das Konzept der Selbsterkenntnis.

Das Problem ist, dass ein Roboter seinem Programm folgt und sonst nichts. Folglich kann ein Roboter keine Emotionen haben oder Wahnsinn entwickeln.

Trotzdem kann ein Roboter jemanden aufgrund eines Fehlers in seinem Programm, einer Fehlfunktion oder eines Hackings ermorden.

In diesem konkreten Fall könnte die Mordtat, um erkannt zu werden, durch einen Fehler in seinem Persönlichkeitsprogramm verursacht worden sein. In der Tat kann ein komplexes Programm zu einem komplexen Fehler und einer komplexen Fehlfunktion führen.

Zum Beispiel schreibt das Programm vor, dass ein vernachlässigter Roboter Aufmerksamkeit suchen muss, um Persönlichkeit zu simulieren und Fehlfunktionen aufgrund mangelnder Wartung zu vermeiden, was zu immer extremerem Verhalten führt, wenn Vernachlässigung fortschreitet, und in diesem Fall Mord aufgrund unerwarteter Einflüsse.

Sie missverstehen den Zweck, KI-ähnliche Systeme zu erstellen, von denen eines genau das Gegenteil Ihrer Prämisse ist - wir programmieren sie nicht gerne, selbst wenn wir dies könnten, zu viel Arbeit dabei.

Unter der Annahme, dass die Roboter in Ihrem Universum (oder zumindest einige von ihnen) empfindungsfähig sind und ein emotionales Leben besitzen, das mit unserem vergleichbar ist (einschließlich Begierden), könnte so ziemlich jede Art von „Roboterverbrechen“ erklärt werden.

Es scheint jedoch nicht sehr überzeugend, dass dieser Roboter a) töten würde (es gibt andere Möglichkeiten, um bemerkt zu werden, zumindest für einen empfindungsfähigen Roboter, dessen Existenz in Ihrem Universum nicht öffentlich bekannt zu sein scheint) b) einen Zufall Prostituierte (die Gesellschaft betrachtet sie nicht als eine sehr hochkarätige Personengruppe und keine, die ihnen besonders am Herzen liegt) c) ohne die Tat sofort zuzugeben (was er, wie ich den bereitgestellten Informationen entnehme, nicht getan hat) - wenn du für etwas auffallen willst, versuchst du nicht zu verbergen, was du getan hast.

Da er anscheinend die Freiheit hat, mit Nutten auszugehen, hätte er höchstwahrscheinlich die Freiheit gehabt, seine Selbstwahrnehmung/Kreativität/Persönlichkeit einer Fernsehsendung, Wissenschaftlern oder dergleichen zu offenbaren - ich finde es schwer zu glauben, dass etwas dieser Größenordnung weniger Chancen hätte, bemerkt zu werden als der Tod einer Prostituierten, etwas, das leicht auf "einen technischen Defekt" zurückgeführt werden könnte - und vor allem etwas, das ihn nicht in ernsthafte Schwierigkeiten mit dem Gesetz bringen würde.

Wenn Sie die Umstände des Mordes und insbesondere das „Leben“ des Roboters in eine restriktivere Umgebung geändert haben, fügen Sie möglicherweise einen Besitzer hinzu, der möglicherweise Teil einer „Human Supremacy-Bewegung“ ist oder zumindest an die menschliche Vorherrschaft glaubt – in ähnlicher Weise Mode als weiße Supremacisten in unserer Welt betrachteten schwarze Menschen als minderwertige Wesen, deren einziger Zweck es ist, der arischen Rasse oder ähnlichem Unsinn zu dienen - und verhindert, dass der Roboter mehr als nur eine Maschine wird (oder sogar das Haus verlässt). oder so, Sie können hier viele schreckliche Hintergründe und dadurch Sympathien für den Roboter schaffen), trotz seines Wissens über zumindest einige der mentalen Fortschritte des Roboters, dann hätten Sie ein überzeugendes Opfer und ein Motiv. Sie würden auch einige starke Parallelen zur Geschichte der Sklaverei usw. haben, viel Material, mit dem Sie arbeiten können.

Es wäre schön, eine Erklärung für eine Ablehnung zu bekommen.
Anscheinend war ich es, obwohl ich mich eindeutig nicht an die Ablehnung erinnere; Es ist umgekehrt.
Ich könnte den emotionalen Teil Ihrer Roboter herabsetzen, weil es offensichtlich ist und keinen Unterschied zum Menschenmord hat und nichts mit dem wichtigsten Teil der Frage von OP zu tun hat, nämlich die Anerkennung dieses Roboters als gleichwertig. Aufgrund dieser Prämisse haben Sie den Rest der Antwort nicht gelesen und nicht abgelehnt. Vielleicht bringen Sie später einige wertvolle Punkte in Ihr A ein, können also nicht beurteilen, bis ich die Antwort auf den Eintrag gelesen habe, was danach nicht meine Absicht ist erster Teil davon.