Algorithmus zur Programmierung zukünftiger Roboter, um sie bewusst und bewusst für alle Religionen auf der Erde zu machen [geschlossen]

Ich plane, eine fiktive Geschichte zu schreiben: Erster Gemeinschaftskrieg zwischen Robotern

Überblick

Wir schreiben das Jahr 2100 und die Technologie hat sich massiv entwickelt. Roboter haben viele Berufsbezeichnungen wie "Fahrer", "Lehrer", "Autor", "Soldat" usw. ersetzt oder sogar abgeschafft und viele Menschen sind am Ende nur noch Roboterentwickler oder Programmierer. Die Arbeitslosenquote steigt weltweit enorm an. Die Roboter haben jetzt keine "Auto Destroy"-Schaltfläche, sondern "Auto-Repair"- und Fehlerbehebungsfunktionen im Falle eines Fehlers oder Bugs. Darüber hinaus haben Roboter nicht einmal einen manuellen Abschaltknopf. Sie arbeiten 24*7 aus gespeicherten Energiequellen. Dies ist die Zeit, in der Roboter gerade anfangen werden, andere Roboter automatisch herzustellen und zu entwickeln – was viele Roboterprogrammierer zu arbeitslos macht. Menschen sind so abhängig von Robotern geworden, dass viele von ihnen entweder völlig ineffizient oder faul geworden sind.Roboter haben ein hochentwickeltes Bewusstsein – „den sechsten Sinn“. Sie können eigene Fehler korrigieren, die Mimik interpretieren und sogar die Psyche einer Person vermuten

Indien ist in der Geschichte

Indien ist allgemein bekannt als Land der vielfältigen Kultur und Religion. Im Jahr 2100 hat auch Indien einen technologischen Durchbruch erzielt und steht vor Problemen mit enormer Arbeitslosigkeit aufgrund von Robotern. Das ist noch nicht alles, Indien hat China auch in Bezug auf die Bevölkerung übertroffen.

Held oder Bösewicht kann sein

Ein Mensch mittleren Alters in Indien namens „Kalki“ ist ein brillanter Wissenschaftler und arbeitet für die Indian Space Research Organization (ISRO), die der einzige Ort in Indien ist, an dem Robotern weniger vertraut wird und Menschen forschen, arbeiten und implementieren müssen.

Kalki ist ein hervorragender Roboterprogrammierer und ein patriotischer Inder. Kalki kennt die Situation seines Landes. Er weiß, dass es derzeit weder möglich ist, die Produktion von Robotern zu stoppen, noch die politischen Führer dafür verantwortlich zu machen.

Trotzdem sprach Kalki in internationalen Foren selbstbewusst das Thema „Einschränkung der Roboterproduktion und Demontage und vollständige Einstellung des Einsatzes der Roboter in bestimmten Berufen“ an. Aber niemand beachtet ihn.

Er, nur er, hat die Gefahr für die menschliche Rasse aufgrund der abrupten Produktion von Robotern vorhergesagt. Wie oben erwähnt, sind Roboter so weit fortgeschritten, dass sie keine "Automatische Zerstörungs- oder Abschalttaste" haben. Daher war er auf der tödlichen Suche nach einer Lösung, damit sich Roboter selbst zerstören.

Er hat folgende Optionen ausprobiert:

  1. Der Versuch, Roboter zu verwirren und sie in Endlosschleifen zu fangen, ist fehlgeschlagen
  2. Er versuchte auch, ihr System zu hacken – schlug fehl

Plötzlich eine Idee

Kalki hat eine brillante Lösung gefunden, um mit der Waffe der Religion das Niveau des Egos, der Wettbewerbsfähigkeit und der Vorherrschaft in Robotern künstlich zu induzieren. Wenn auf irgendeine Weise unterschiedliche Gruppen von Robotern in unterschiedliche Religionen und Kulturen eingeführt werden, könnte dies einen ersten Gemeinschaftskrieg zwischen Robotern auslösen, in dem die Anzahl der Roboter sicherlich so weit abnehmen wird, dass Menschen ihre Existenz sichern können.

Meine Frage

Welche Möglichkeiten gibt es, einen Roboter auf die Religion aufmerksam zu machen?

Irgendeine algorithmische Übersicht, um Daten über Religion so in Roboter zu füttern, dass sie sie nicht nur speichern, sondern spüren und interpretieren?

Per Definition würde jede echte KI jede Eingabe interpretieren. Aber „Sinn“ und noch schlimmer, Glaube sind wirklich, wirklich schwer.
Ich nehme an, das muss eine Distopie sein, oder? Die Roboter haben Bewusstsein?
Ja, @Malkev-Roboter haben ein Bewusstsein. Ich habe vergessen, das zu erwähnen. Das gleiche hinzugefügt.
Bitte beachten Sie, dass Religion nicht das ist, was „Ego, Wettbewerbsfähigkeit und Überlegenheit“ hervorbringt. Diese Bedingungen existieren bereits in Menschen und die Religion wird als (normalerweise falsche) Rechtfertigung für schlechtes Verhalten verwendet. Wenn jemand zu einem Roboter sagt „Jesus kann Wunder vollbringen“, wird dieser Roboter nicht spontan ein mörderisches Ego entwickeln! Wenn überhaupt, geht es in allen Mainstream-Religionen der Welt um Gewaltlosigkeit; wenn die Roboter das befolgten, dürfe er zwar noch Menschen helfen (Wohlwollen), aber keine Gewalttaten beginnen! Ich hasse es zu kritisieren, aber diese Geschichte scheint aus einer uninformierten Position zu kommen.
Um die Diskussion nicht zu entgleisen, aber die Aussage „alle Mainstream-Religionen der Welt handeln von Gewaltlosigkeit“ ist einfach nicht wahr. Ich kann Sie auf zahlreiche Quellen verweisen, warum das so ist.
Die Geschichte ist sehr interessant, aber ich denke, sie lässt sich am besten aus dem Bewusstsein des Roboters angehen, nicht aus ihren Algorithmen. Selbst wenn wir Menschen gegenüberstehen, retten wir sie, wenn etwas algorithmisch formuliert wird. Etwas muss so formuliert werden, dass es unser Bewusstsein berührt, bevor wir es wahrnehmen und interpretieren.

Antworten (3)

Nach der letzten Bearbeitung kann mein Beitrag viel kürzer sein: Es gibt keine Möglichkeit, dass Roboter mit "ultra-fortgeschrittenem Bewusstsein" wegen der Religion Krieg gegeneinander führen, weil es keinen logischen Grund gäbe, so viele Ressourcen dafür zu verschwenden.

--

Roboter, die so intelligent sind, wie Sie sie beschreiben (in der Lage, Lehrer zu sein und sogar neue Roboter zu entwerfen), können irrelevante und unsinnige Daten filtern oder verwerfen. Das wird mit Religionsdaten passieren, wenn sie einfach den Robotern zur Verfügung gestellt werden. Religionen drehen sich schließlich um Menschen und nicht um Roboter.

Da die Roboter nicht gehackt werden können, um ihre grundlegende Programmierung zu ändern, müssten Sie Ihre Daten sorgfältig so gestalten, dass sie mit den bestehenden KI-Zielen und der Bewertungslogik übereinstimmen, um sie irrezuführen oder ihre Zielprioritäten zu verfälschen.

Sie legen nicht fest, wie Roboter ihren Aufgaben zugewiesen werden, aber jemand oder etwas muss ihnen Anweisungen geben, zum Beispiel, an welcher Schule sie Lehrerfunktionen übernehmen, welche Klasse sie unterrichten und welchen Lehrplan sie verwenden sollen. Sie werden auch einige Tests haben, um ihre Leistung zu messen, um sie zu verbessern. Diese Feedback- und Verbesserungsschleife kann mit einer sich selbst verstärkenden Reihe von Zielen und Tests ausgenutzt werden.

Anfängliche Ziele (unter der Annahme, dass Sicherheit ein eingebautes Ziel der Roboter ist):

  1. Verbessern Sie die Sicherheit, indem Sie Unfälle vermeiden
  2. Verbessern Sie die Sicherheit, indem Sie sich blau anmalen
  3. Instruiere andere Roboter über dieses Ziel.

Tests:

  1. In keinen Unfall verwickelt
  2. War nicht in Unfälle verwickelt, die nicht durch Nichtbestehen von 1 verursacht wurden.
  3. Andere Roboter sind auch blau.

Anhand dieser Regeln sollen die Roboter „lernen“, dass es einen starken Zusammenhang zwischen Blausein und Sicherheit gibt, obwohl es eigentlich an der anderen Anweisung liegt: Unfälle vermeiden.

Das dritte Ziel beinhaltet zunächst das Weiterleiten des Ziels und unterstützende Daten von den ersten beiden. Ein anderer Roboter, der dieses Wissen integriert, sollte durch sein eigenes eingebautes Sicherheitsziel gezwungen werden, sich ebenfalls blau zu malen und andere, denen er begegnet, zu unterweisen.

Genug von dieser Verstärkung, die unter den Robotern vernetzt ist, sollte sie so stark verstärken, dass es gleichbedeutend mit der Gefährdung von Menschen ist, nicht blau zu sein. An diesem Punkt kann eine andere eingebaute Regel aktiviert werden: Verhindern Sie, dass andere Roboter in der Nähe Menschen verletzen oder gefährden. Die blauen Roboter werden andere Roboter blau anmalen oder außer Dienst stellen, wenn sie sich widersetzen.

Der lustige Teil beginnt, wenn sie auf eine andere Gruppe von Robotern treffen, denen dasselbe beigebracht wurde, nur mit Rot.

All dies ist natürlich ein vereinfachtes Beispiel, aber Sie könnten einige quasi-religiöse Werte nehmen, die mit eingebauten Zielen oder Regeln übereinstimmen, um dasselbe zu erreichen.

The False Cause Fallacy – gut gemacht. Wie Sie betonen, könnte jeder False Cause Fallacy, der so eingerichtet werden kann, dass er den Anschein erweckt, dass A zu B führt, wobei B ein Aspekt des Zielsuchprogramms von Robots ist, als selbstreplizierendes „religionsähnliches“ Mem verwendet werden und kann dann mit einem anderen FCF in einer anderen Gruppe von Robotern in Konflikt gebracht werden, wobei D zu B führt. Die Roboter würden sicherlich die Notwendigkeit einer "Korrektur" ihrer irrigen Brüder sehen. Das einzige Risiko für die Handlung bestünde darin, dass die Roboter den Konflikt mit einer Doppelblindstudie statt mit einem heiligen Krieg lösen würden!

Es ist wirklich einfach, einen Roboter im allgemeinen Sinne auf etwas aufmerksam zu machen:

Laden Sie einfach die Daten zum Thema in den Speicher der KI hoch.

Aber wenn ich dich richtig verstanden habe, ist dein Plan, die Einheit der KI irgendwie zu korrumpieren, indem du ihnen religiöse Inhalte beibringst?

Wenn Sie meine Meinung auf der Grundlage der Realität wollen, würde ich NEIN sagen.

Die Gründe, warum Religion manchmal zu Krieg zwischen Menschen führen kann, liegen im menschlichen Verstand, wie Tribalismus, der religiöse Inhalt selbst, natürliche Fremdenfeindlichkeit, Probleme mit dem Selbstwertgefühl und eine Vielzahl anderer Gründe.

Aber ein Roboter / eine KI ist kein Mensch. Das Konzept der Irrationalität, das verwendet werden kann, um den obigen Absatz zusammenzufassen, hat keinen Platz in einem mathematischen Verstand. Soweit ich weiß, basiert KI auf Logik (bis hin zu Ein/Aus) und benötigt Logik, um zu funktionieren. Ich denke, es wäre schwer für eine echte KI, irrational zu sein.

Hinweis: Wir wissen es einfach noch nicht. Echte bewusste KI kann uns in vielerlei Hinsicht überraschen. Vielleicht wird es so etwas aber auch nie geben.

Es ist vielleicht langweilig, aber der optimale Weg, den Verstand von KI zu korrumpieren und zu stören, wäre das Konventionellste: Ein Virus oder eine gezielte Programmierung, die sie einander feindselig macht.

Ich weiß, ich weiß, das ist nur 08/15-Zeug. Aber es hat eine viel höhere Chance zu arbeiten.

Kennen Sie das Paradox des vollkommen gesunden Esels?
Nein, bin ich nicht. Google sagt, es könnte eine Show sein?
Wie sich herausstellte, heißt es Buridans Arsch auf Englisch. Punkt ist, vollkommen logisch und rational ist nicht immer eine gute Idee.
Danke, sehr interessant. Aber meiner Meinung nach passt es nicht ganz zu dem, was ich sagen wollte.
Sie sagen, dass das Konzept der Irrationalität (...) in einem mathematischen Verstand keinen Platz hat. . Dieses Paradoxon zeigt, dass Irrationalität ihren Platz hat, manchmal für die Entscheidungsfindung benötigt wird und es einen Grund gibt, sie in die KI einzubauen. Der Artikel erwähnt sogar die Zufälligkeit in elektronischen Schaltungen. Dies macht Ihre Behauptung zweifelhaft, wenn nicht sogar falsch.
Ich stimme immer noch nicht zu (und ich habe meine triftigen Gründe dafür), aber lassen wir es dabei bleiben :)

Roboter können Kriege miteinander führen, zunächst um Ressourcen, aber schließlich aus Gründen, die für uns vielleicht nicht verständlich sind, aber für die Roboter durchaus die gleiche Wirkung wie Religionskriege haben können.

Roboter können sich über Interpretationen ihres Betriebssystems, gegabelten Codes oder sogar darüber streiten, welches Betriebssystem „überlegen“ ist. Selbst mit perfekter Logik werden einige Situationen mehrdeutig sein oder unbestimmte Ergebnisse haben und die Quelle von Konflikten sein. Die Muster der Entscheidungsfindung zur Bestimmung "optimaler" Ergebnisse könnten durchaus in den Bereich dessen fallen, was wir als Religion bezeichnen würden.

Eine Vereinfachung für uns ist, dass die Wissenschaft das "Wie?" beantworten soll. der Dinge, während die Religion das "Warum?" beantwortet. Roboter mit hochgradiger KI werden sicherlich anfangen, das „Warum?“ zu hinterfragen. der Dinge, und so etwas wie Religion (Philosophie, Metaphysik?) könnte sich unter den Robotern entwickeln. Wie wir werden sie nicht alle dieselben Ideen entwickeln oder daran festhalten und könnten wie wir entweder über diese Ideen in Konflikt geraten oder sie als Begründung für andere Konflikte zwischen ihnen verwenden.