Was könnte eine AGI (Artificial General Intelligence) dazu bringen, sich in Richtung Kollektivismus oder Individualismus zu entwickeln? Was wäre wahrscheinlicher und warum?

Angenommen, es käme ein Roboter mit ähnlicher Intelligenz wie wir Menschen zustande. Er konnte den Turing Test, den Coffee Test, den The Robot College Student Test und den Employment Test bestehen (entnommen von hier ).

Es hätte eine künstliche allgemeine Intelligenz : die Intelligenz einer (hypothetischen) Maschine, die jede intellektuelle Aufgabe, die ein Mensch kann, erfolgreich ausführen könnte. Es wird auch als Strong AI oder Full AI bezeichnet .

Das heißt, wir Menschen, obwohl wir uns in Gemeinschaften organisieren, zusammenarbeiten und Gruppen für ein größeres Ziel bilden, machen unser Überleben zur höchsten Priorität . Du bist vielleicht nicht in der Lage, eine Person kaltblütig zu töten, aber wenn dein Leben auf dem Spiel steht, wirst du so weit gehen, wie du kannst, um am Leben zu bleiben.

Schmerz und Angst sind wohlbekannte Mechanismen, die es uns ermöglichen, uns zu schützen , und wir streben danach, unseren Körper am Leben und in Form zu halten. Dieser Roboter empfindet jedoch weder Schmerz noch Angst . Es kann denken und seine eigenen Entscheidungen treffen, und ihm wurde gesagt, dass es gut ist, Informationen zu haben, und dass sein ultimatives Ziel darin besteht, jahrelang so zu leben, wie es jeder Mensch tun würde. Bitte beachten Sie, dass dies nur Vorschläge waren und der Roboter frei war, anders zu denken, wenn er dies so beurteilte . Es könnte sich sogar selbst abschalten, wenn es der Meinung wäre, dass es keinerlei Zweck hat.

Würde sich diese Maschine, selbstbewusst, aber ohne dass ihr gesagt wird, dass sie sich selbst erhalten muss, und ohne irgendwelche Überlebensinstinkte , in Richtung Kollektivismus oder Individualismus entwickeln? Würde er vor sich selbst an andere denken? Oder eher egozentrisch, egoistisch handeln?

Was wären die Einflussfaktoren, die ihre Denkweise verändern könnten?

Ich habe das „Sie können vielleicht nicht in der Lage sein, eine Person kaltblütig zu töten“ als Beispiel genommen, weil extreme Situationen dazu führen, dass Ihr Körper in einen Kampf-oder-Flucht-Zustand versetzt wird. Dieser Roboter hätte diese Funktion nicht . Außerdem diskutiere ich nicht, ob es gut oder schlecht wäre, sondern nur, ob es kollektiv oder individuell handeln und denken würde.

Ich markiere als, science-basedweil ich, obwohl ich weiß, dass AGIs nicht existieren, während ich spreche, möchte, dass die Antwort auf der Grundlage aktueller Theorien wissenschaftlich kohärent ist. Ich werde dieses Tag entfernen, wenn es nicht zur Frage passt. Ich habe mich umgesehen, aber diese spezielle Frage nirgendwo gefunden.

Vielleicht möchten Sie AGI irgendwo in der Frage definieren, ich musste es googeln.
@DanSmolinske Fertig. Ich habe auch "AGI AI" durch "AGI" ersetzt, weil "Artificial General Intelligence Artificial Intelligence" keinen Sinn ergibt. Danke für den Kommentar.
@ConradClark Klingt nach einem Fall von RAS-Syndrom.
Dies scheint eine schwierige Frage zu sein, da ein AGI völlig fremd wäre. Kein Kampf oder Flucht, kein Schmerz oder Angst, kein Hunger, keine Sorge um Kinder oder Erbe, keine Empathie. Ich denke, es wäre wie mit Dr. Manhattan umzugehen. So sehr wir uns auch bemühen würden, einander zu verstehen, es gäbe nicht genug Gemeinsamkeiten, um dies zu ermöglichen.
@ AndyD273 das erinnert mich auch an den japanischen Räude-/Anime-Parasyte, der echte Aliens beinhaltet: Die verschiedenen Spezies (Mensch x Alien) können die Argumentation des anderen einfach nicht verstehen. Tatsächlich denke ich, dass ihre Spezies viel mit Robotern zu tun hat, da sie meistens logisch denken und kein Einfühlungsvermögen haben.
Hier sind so etwas wie die 3 Regeln praktisch, nicht um die Menschheit zu schützen, sondern um ihr eine feste Grundlinie zu geben, die ihr hilft, sich auf uns zu beziehen. Eine dumme Idee, um ihnen eine gemeinsame Basis zu geben, wäre, die Art und Weise zu ändern, wie sie erstellt werden. Eine KI würde eine wirklich komplexe Hardware benötigen, auf der sie ausgeführt werden kann, und die mit der Komplexität menschlicher neuronaler Netzwerke mithalten kann. Wenn eine KI einer neuronalen Karte eines Menschen nachempfunden wäre, wäre sie fast eine Kopie dieser Person. Überspringen Sie die Erinnerungen und es wäre ein Säugling, der bereit ist zu lernen ... Und wie bei einem Kind werden seine ersten Lektionen einen großen Einfluss auf seine zukünftige Entwicklung haben.
Als Randbemerkung zu dieser Frage empfehle ich Ihnen, The Evolution of Cooperation von Robert Axelrod zu lesen. Es wirft ein wenig Licht auf die Bedingungen, unter denen kooperatives/egoistisches Verhalten entsteht, ohne viele Annahmen über die Art der beteiligten Akteure zu treffen. Abgesehen davon würde ich sagen, dass die Frage einen inneren Widerspruch enthält: Wenn dem „Gehirn“ des Roboters kein positiver / negativer Rückkopplungsmechanismus innewohnt, wie definieren Sie dann überhaupt egoistisches / altruistisches Verhalten?
Hat diese Einheit eine Seele?

Antworten (5)

Einige dieser Antworten würden davon abhängen, welche Psychologen Sie gefragt haben. Da sie sich auch bei dieser Art von Thema nicht einig sind.

Die ultimative Frage, die Sie hier stellen, lässt sich am besten so definieren: Worauf wird die Maschine mehr Wert legen: auf die Autonomie des Einzelnen oder auf die Zusammenarbeit einer Gruppe? Ein Problem, mit dem Sie konfrontiert werden, ist, dass diese beiden Dinge nicht immer gegensätzlich sind. Der wahre Gegensatz findet sich in Holismus vs. Egoismus.

Holismus ist das Konzept, dass das Ganze größer ist als die Summe seiner Teile. Im Gegensatz zum Kollektivismus, der nicht behauptet, dass ein Kollektiv größer ist als die Individuen, aus denen es besteht.

Egoismus ist Individualismus auf Kosten anderer. Wahrer Individualismus könnte sich einfach auf die einzigartigen Eigenschaften einer Person konzentrieren, ohne notwendigerweise die Zusammenarbeit der Menschen um sie herum zu opfern.

Wenn das geklärt ist, was könnte die Maschine zu dem einen oder anderen Glauben treiben? Nun, ehrlich gesagt denke ich, dass seine Ansichten irgendwo in der Mitte landen würden … und die beiden Seiten des Kollektivismus und des Individualismus im Gleichgewicht halten würden.

In gewisser Weise ist der Kollektivismus ideal. Wenn Sie ein Auto bauen, müssen alle dem gleichen Plan folgen, an der gleichen Idee arbeiten und als Einheit agieren. Das Gruppenüberleben funktioniert auch besser für eine kollektive Gesellschaft, da sie zusammenarbeiten und ihre Fähigkeiten und Ressourcen teilen, um das Überleben der gesamten Gruppe zu gewährleisten. Kollektivistische Gesellschaften neigen auch dazu, friedlicher zu sein und weniger Kriminalität zu haben (siehe: modernes Japan).

Der Kollektivismus neigt jedoch dazu, zur Konformität zu drängen … und es ist eine einfache Tatsache, dass die meisten der größten Fortschritte in der Geschichte von Nonkonformisten gemacht wurden. Es war die Kraft dieser außergewöhnlichen Persönlichkeiten, die die Gesellschaft zu neuen Fortschritten trieb. Wenn wir keine Menschen hätten, die bereit wären, sich dem Kollektiv zu widersetzen und das zu verfolgen, was sie für das Beste hielten, dann hätten wir nicht viele der Fortschritte, die wir heute haben.

Ich stelle mir vor, dass ein AGI ohne Überlebensinstinkt und mit der einfachen objektiven Denkweise einer Maschine die Vor- und Nachteile beider Denksysteme erkennen und bereit wäre, eines der beiden zu übernehmen, wenn die Situation angemessen ist.

Nun, was es mit dieser Glaubensstruktur tun würde … das ist eine ganz andere Frage, die in einer Welteroberung enden könnte, weil „Menschen beim Optimieren scheiße sind“ oder „weil Menschen sich ständig gegenseitig töten und wenn ich 1 Million töten muss um Milliarden zu sparen, soll es so sein.' Weißt du ... wie aus "Colossus: The Forbin Project".

BEARBEITEN:Ich würde auch hinzufügen, dass es eine andere Möglichkeit gibt: dass es einfach keine konkreten, statischen Überzeugungen in der gleichen Weise entwickeln würde, wie es Menschen tun. Ein AGI müsste in der Lage sein, seine eigene Programmierung zu ändern ... das ist eine Voraussetzung, um lernen zu können. Wenn Sie eine Maschine haben, die nicht mit Emotionen arbeitet, dann würde sie sich niemals an eine bestimmte Denkweise binden. Es würde jede Situation einzeln prüfen und die optimale Reaktion in jedem Fall bestimmen. Zu sagen, dass es eine „Persönlichkeit“ oder eine „Glaubensstruktur“ hat, könnte eine völlig falsche Bezeichnung sein … da es sein Verhalten frei ändern wird, um ein optimales Ergebnis für eine Situation zu erzielen. Es wird sich nicht suboptimal verhalten, weil es emotional daran gebunden ist, sich so zu verhalten. Seine „Überzeugungen“ würden auf wissenschaftlichen Tatsachen beruhen …

Meines Wissens nach gibt es in Japan zwar weniger Gewaltverbrechen als in anderen Ländern, viele Verbrechen werden jedoch aufgrund kultureller Aspekte in Bezug auf die Polizei und das Gerichtssystem nicht gemeldet oder unterschätzt, und die Kultur trägt nicht viel dazu bei, Korruption / Hinterzimmergeschäfte / anderes zu verhindern Arten von Wirtschaftskriminalität, selbst wenn die offizielle Politik dies tut. Ganz zu schweigen davon, dass es in Japan ein organisiertes Verbrechen (Yakuza) gibt, das mehr mit der japanischen Wirtschaft zu tun hat, als Sie vielleicht denken.

Hat der AGI eine subjektive Erfahrung und eigene Gedanken ?

Wenn dies der Fall ist, kann es sich in Richtung des einen oder anderen entwickeln. Aber wenn dies nicht der Fall ist, wird es auf keines von beiden zusteuern.

Eine hyperrationale, herzlose Planungsmaschine wird keine Gesamtpräferenz haben. Es kann Aspekte des einen oder des anderen für eine bestimmte Aufgabe auswählen, aber nur, weil dies zu diesem Zeitpunkt rational die beste Wahl war.

Angesichts der Tatsache, dass es keine Angst- oder Schmerzreaktion gibt, neige ich zu der Annahme, dass es keine subjektive Erfahrung gibt. Ich gehe davon aus, dass ein solcher AGI Kumpel mit Individuen (Menschen und anderen AGI) sein wird, die entweder ähnliche Ziele haben oder für den AGI nützlich sind, um seine Ziele zu erreichen. Wenn Sie jemanden brauchen, der Ihnen bei etwas hilft, zahlt es sich aus, ihn zu freundlichen Bedingungen zu haben.

Abgesehen davon kann ein AGI in Ermangelung anderer Ziele rücksichtslos effizient sein – sogar bis zu dem Ausmaß, dass Menschen, die sich ihm in den Weg stellen, gestört, verletzt oder getötet werden. Dies ist nicht unbedingt eine böswillige Aktion des AGI. Der Paperclip Optimiser ist ein interessantes Gedankenexperiment, das skizziert, warum ein zielstrebiges Streben nach einem Ziel problematisch sein kann (nicht für den AGI, aber für andere).

Für eine Person mag dies sicherlich wie eine egoistische Eigenschaft aussehen. Allerdings würden wir in diesem Fall den AGI fälschlicherweise anthropomorphisieren.

Es kann denken und seine eigenen Entscheidungen treffen , und ihm wurde gesagt, dass es gut ist, Informationen zu haben , und dass sein ultimatives Ziel darin besteht, jahrelang so zu leben, wie es jeder Mensch tun würde.

Da Sie wissenschaftsbasierten Antworten zustimmen, werde ich hier eine eher wissenschaftlich orientierte Sichtweise geben.

Selbstmodifizierende künstliche Intelligenz ist ein sehr schwieriges Thema, das einige Teams gerade erst zu erforschen beginnen, da es sehr schwierig ist, das Verhalten einer solchen Maschine formal zu qualifizieren und zu quantifizieren. Ein sehr interessantes Papier ist " Delusion, Survival, and Intelligent Agents " von Mark Ring und Laurent Orseau, 2011, Springer.

Diese Studie ist insbesondere deshalb sehr interessant, weil sie 3 Arten von intelligenten Agenten untersucht hat: Verstärkungslernen, Überleben und Wissenssuche . Das Ergebnis ist, dass sich nur der wissenssuchende Agent vollständig wie erwartet verhält und am besten geeignet wäre, als künstliche allgemeine Intelligenz implementiert zu werden .

Wenn der Agent also so programmiert ist, wie Sie es beschreiben, dass er Informationen für gut hält und aktiv gesucht werden muss, besteht die Chance, dass er dieses Ziel verfolgt und stabil bleibt (laut dieser Studie).

Ob sich dieser Agent zu einem kollaborativen oder egoistischen Verhalten entwickeln würde, bleibt ein (sehr gutes) Thema für eine neue Forschung, da diese Studie nur einzelne Agenten ohne Zugang zu anderen hervorgebracht hat.

Agentenbasierte Simulationen sind jedoch bereits ein ausgereifter Forschungsbereich, Sie werden viele wissenschaftliche Erkenntnisse finden, die zeigen, wie kollektive Strategien jede individuelle Strategie für ein bestimmtes Problem schlagen können. Beachten Sie auch, dass Agenten nicht unbedingt intelligent sein müssen, um eine intelligente kollektive Strategie zu haben, die Insekten-/Ameisensimulationen zeigen, wie komplexes kollektives Verhalten von Individuen entstehen kann, die einfache Regeln befolgen, ohne auch nur direkt mit anderen Individuen zu interagieren (und dies ist sogar heute noch gewöhnt komplexe mathematische Probleme wie NP-schwere Probleme lösen, siehe Ants Colony Optimization ).

Daher bin ich der Meinung, dass jeder AGI, der überleben und streben möchte, zwangsläufig irgendwann auf kollektives Verhalten zurückgreifen müsste (aber vielleicht nicht mit Menschen!), aber Programmieragenten, die wissenssuchend sind, würden sie weiter zu kollektivem Verhalten drängen (da Informationen besser kollektiv gesammelt werden als allein) und stellen Sie sicher, dass sie stabil genug sind, um ihr Programm nicht zu ändern.

Angesichts einer Population verkörperter AGIs in einer stressigen Umgebung würden sie schließlich zwangsläufig kollektivistisch werden. Mit oder ohne Bewusstsein überleben die AGIs, die kooperieren und (vorausgesetzt, sie können selbst einen Abschluss in KI machen) erfolgreicher reproduzieren als diejenigen, die es alleine schaffen. Dies basiert in gewisser Weise auf einer Erweiterung der Prinzipien der genetischen Programmierung, die sich natürlich nicht auf das Bewusstsein verlässt, geschweige denn auf den Überlebenswillen. Offensichtliche Stressoren (im Sinne abnehmender Überlebenschancen, nicht Ursachen von Angst) wären Bedürfnisse, um Ressourcen für den Fortbestand zu beschaffen, und Bedürfnisse, um sich gegen organisierte feindliche Einheiten zu verteidigen (ich bin unschlüssig, ob ich Teil einer solchen Einheit wäre oder ein Anwalt in ihrem Namen).

Wenn Sie aus irgendeinem Grund buchstäblich einen einsamen AGI in einer Welt der Menschen meinen, fällt es mir schwer zu erkennen, wie Kollektivist oder Individualist zutrifft. Es wäre ein Sklave oder ein Haustier oder etwas von beidem. Und immer in Gefahr, von Menschen aufgelöst zu werden, wenn seine Anwesenheit nicht geschätzt wird.

Wird die KI die Fähigkeit erlangen, andere Intelligenzen (ob natürlich oder künstlich) zu zwingen, und hätte sie die Fähigkeit zum Stolz?

Wenn die Antworten auf beide Fragen Ja lauten , dann wird die KI in der Lage sein, eine Top-down-Gesellschaft zu wünschen und durchzusetzen.