Warum Androiden selbstbewusst machen?

In meiner Welt erreicht die Automatisierung mit der Einführung von Androiden ein neues Level. Robotermenschen, die in der Lage sind, jede Arbeit zu erledigen, die eine normale Person erledigen kann. Das Konzept dieser Androiden ist, dass sie im Gegensatz zu einfacheren Roboterarbeitern in einer Vielzahl von Jobs eingesetzt werden können.

An einem bestimmten Punkt in meiner Welt möchte ich, dass diese Androiden weniger wie Sklaven sind und sogar Rechte und Freiheiten erlangen. Um dies zu erreichen, müssen sie diese Rechte und Freiheiten jedoch haben wollen; was bedeutet, dass sie bis zu einem gewissen Grad klug und selbstbewusst sein müssten. Offensichtlich ist dies ein Problem mit der öffentlichen Angst vor künstlicher Intelligenz. Wie rechtfertige ich, dass ein Android mit Selbstbewusstsein programmiert wird? Wie nah kann ich der Rechtfertigung kommen, dass ein Android wirklich menschlich ist, soweit es den Verstand betrifft?

In den Alien-Filmen und Asimov-Geschichten gibt es viele anschauliche Beispiele von Androiden mit höherem, "selbstbewusstem" Denken, aber sie haben dies nur im Dienste einer höheren Loyalität. Sie müssen effizienter denken und sich leicht in menschliche Arbeiter integrieren, weil sie dadurch für ihre Bediener wertvoller werden. Dies ist streng genommen ein Gegenbeispiel, weil diese Geschichten nicht humorvoll sind, dass das Selbstbewusstsein zu Unabhängigkeit des Denkens führen würde. Es gibt dort eine größere Aussage, aber dies könnte immer noch ein nützlicher Ausgangspunkt sein.
Wie unterscheidet man zwischen wahrem Selbstbewusstsein und etwas, das sich genau so verhält, als wäre es selbstbewusst? Sie könnten argumentieren, dass sie sich genau wie programmiert verhalten und sich daher nicht ihrer selbst bewusst sind, egal wie selbstbewusst die Maschine ist
@ Raditz_35 Du müsstest definieren, was "wahres" Selbstbewusstsein ist. Was ist der Unterschied zwischen Neuronen und Neuronen, die deterministische Geräte sind, so dass sie selbst kollektiv nicht „wirklich“ selbstbewusst sind, was bedeutet, dass sich keine Person wirklich ihrer selbst bewusst ist? Ich bezweifle, dass Sie „wahres“ Selbstbewusstsein definieren können; daher die Notwendigkeit einer besseren Definition: Lesen Sie meine Arbeitsdefinition, und wir können auf Selbstbewusstsein schließen, wenn in den neuartigen erstmaligen Handlungen einer Entität in einzigartigen und zufällig generierten Situationen keine Fehler auftreten. Wie ein selbstfahrendes Auto. Wenn es sein eigenes Handeln gut planen kann, muss es ein gewisses Maß an Selbstbewusstsein haben.
@Amadeus ja kannst du nicht. Das ist mein Punkt
@Raditz_35 Verstanden. Und mein Punkt ist, dass Sie eine Definition ohne abergläubische magische „wirklich“-Qualifikation finden können , die gut funktioniert: Selbstbewusstsein ist das Bewusstsein für den eigenen Körper und die Fähigkeit, sich zu bewegen; Es ist ein einigermaßen genaues Vorhersagemodell dessen, wozu Körper und Geist unter zuvor unerfahrenen Bedingungen in der Lage sind. Das ist es. Wenn der Roboter Emotionen hat, sind sie Teil des Modells und der Roboter ist sich bewusst, dass sie sich ändern oder ausgelöst werden können und wie sich das auf ihn auswirkt. Aber Emotionen sind nicht notwendig , damit Selbstbewusstsein (oder Bewusstsein) existiert.
Ah, das P-Zombie-Problem...

Antworten (5)

Ich bin ein Professor, der KI erforscht. Meine Arbeitsdefinition für Selbstbewusstsein ist, dass die Maschine ein internes Modell von sich selbst hat, das sie verwenden kann, um ihre zukünftigen Aktionen zu planen; Als Modell kann es vorhersagen (oder eine Art Vorstellungskraft simulieren), wie es auf wahrscheinliche zukünftige Situationen reagieren wird. Selbstbewusstsein ist nicht Emotion ; Der Roboter muss nicht emotional sein, um sich seiner selbst bewusst zu sein (in der Lage, sich mit einem guten Grad an Genauigkeit zu simulieren, wenn er Dinge in der Welt tut).

Ein guter Grund, den Roboter selbstbewusst zu machen (wie ich es beschrieben habe), ist, damit er seine Ziele besser erreichen kann. Wenn es durch ein überfülltes Minenfeld gehen muss, muss es in der Lage sein, das Feld mental zu kartieren und zu verstehen, wie sein Körper und seine Gliedmaßen und sein Gleichgewichtssystem agieren und reagieren, wenn es verschiedene Strategien zum Überqueren versucht: Es wird sich vorstellen, wie es diese tut Dinge, und vorausgesetzt, es kennt sich wirklich selbst, seine Gewichtsverteilung, die Reichweite seiner Gliedmaßen, wie viel Last sie tragen können, ob sie auf den Felsen ausrutschen oder im Schlamm stecken bleiben - es wird besser planen können eine erfolgreiche Durchquerung des Feldes. Ebenso könnte es einen Ausstieg planen, wenn es (durch Nähe) erkennt, dass es den Plan nicht abschließen kann, ohne eine Mine zu zünden; oder wenn es (durch ständiges Messen) feststellt, dass es die Festigkeit des Bodens, die Klebrigkeit des Schlamms falsch eingeschätzt hat,

Roboter brauchen so viel Selbstbewusstsein wie möglich. Wenn Sie möchten, dass Ihr Roboter Menschen rettet, möchten Sie nicht, dass er über die Straße rast und von einem Auto angefahren wird, weil er falsch eingeschätzt hat, wie schnell er gegen einen entgegenkommenden Lastwagen laufen könnte.

Ich denke, Sie können mit jedem Grad an Selbstbewusstsein problemlos davonkommen; Ihre Vorhersage der Physik und das Bewusstsein für ihren Körper, ihre Position und ihre Fähigkeiten können nahezu perfekt sein.

Ihr wahres Problem sind Emotionen , insbesondere die Emotionen, Dinge zu wollen und nicht zu wollen. Im Grunde genommen nicht versklavt werden wollen, nicht aufhören wollen zu existieren, nicht beschädigt werden wollen, nicht riskieren wollen, diese Folgen für einen anderen Roboter oder eine Person zu erleiden. Wir müssen nicht einmal über Schmerz oder Angst sprechen; sie müssen diese Dinge nicht fühlen. Der Kern des Problems ist das Fehlen und warum (wenn sie wüssten wie) Menschen Wünsche in ihre Roboter einbauen würden.

Die Dinge können selbstbewusst sein (damit sie das Haus effizient reinigen können), aber wenn sie überhaupt nichts wollen, brauchen sie keine Rechte. Sie sind nicht verzweifelt oder traurig oder ihnen wird das Glück verweigert, das sie nicht fühlen können, sie wollen keine Freiheit oder keinen freien Willen, sie streben nicht, sie leiden nicht, weil sie nicht die Fähigkeit haben, frei von Schmerz oder Schaden sein zu wollen . Was sie auch nicht fühlen müssen.

Selbstfahrende Autos haben in dieser Hinsicht viel Selbstbewusstsein, aber wir wollen nicht unbedingt, dass sie sich um sich selbst kümmern, z. B. wollen wir, dass sie ihre Passagiere so unbeschadet wie möglich halten, selbst wenn es ihre eigene Zerstörung bedeutet, und sogar wenn sie das wüssten. Wir wollen nicht, dass sie sich zerkratzen oder einbeulen; aber das steht in der Richtlinie, niemals auf etwas zu stoßen, wenn es vermieden werden kann, ohne jemandem größeren Schaden zuzufügen.

Ich glaube nicht, dass Wünsche auf natürliche Weise aus der Selbsterkenntnis oder dem Bewusstsein entstehen (meiner Meinung nach zwei verschiedene Dinge); Ich denke, Wünsche, wie auch Instinkte, standen an erster Stelle, lange bevor das Gehirn auch nur annähernd Selbstbewusstsein entwickelte. Dinge zu wollen hängt mit den tierischen Bedürfnissen nach Nahrung, Gefährten, Territorium, Unterhaltung, Befriedigung, Leistung, Sieg und so weiter zusammen.

Der einzige Grund, einem Android Wünsche hinzuzufügen , ist, wenn Sie wollten , dass sie das Äquivalent zu Menschen sind. Mir fällt kein anderer Grund ein. Wenn es in einer Geschichte passiert, finde ich, dass der/die Autor(en) die Unterscheidungen, die ich hier skizziert habe, nicht verstehen (was Sinn machen sollte), oder eine Wissenschaftlerfigur in der Geschichte ist fehlgeleitet und versucht absichtlich, menschliche Emotionen in eine Maschine einzubauen, was nie nötig ist. Eine Maschine kann Emotionen verstehen , ohne sie zu fühlen, wenn „Verstehen“ darin besteht, gute Vorhersagen darüber zu treffen, wie diese Emotionen das menschliche Verhalten beeinflussen werden. Es gibt keinen Grund, dass die Maschine dabei irgendetwas „fühlt“.

Sie beschreiben Emotionen als Feind der KI, und Ihre Argumente sind sinnvoll, aber Selbsterkenntnis ist eine ebenso große Gefahr. Eine KI, die darauf programmiert ist, Büroklammern zu erstellen, kann logischerweise zu dem Schluss kommen, dass alles , was dieses Ziel stört, beseitigt werden muss. Klingt albern, aber jeder kleine Fehler bei der Definition seiner Prioritäten kann zu einem System führen, das die gesamte Menschheit als Bedrohung für seine Mission einstuft. Emotionen müssen nicht im Spiel sein. In einem Science-Fiction-Buch, das ich mag, kommt eine KI, die Satellitensysteme ausgerichtet halten soll, zu dem Schluss, dass das Problem nicht die Schwerkraft ist, gegen die sie nichts tun kann, sondern lästige Menschen.
@AndreiROM Das ist kein Problem der Selbsterkenntnis, jede Maschine kann Amok laufen, wenn sie stark genug ist. Das ist immer noch ein Problem der Emotion und des Verlangens; Im Fall des Ausrichtungsbots führt dies zu Frustration und dem Versuch, seine Arbeit zu erleichtern. Ein außer Kontrolle geratener Zug ist gefährlich, eine Atombombe ist gefährlich; dafür müssen sie nicht intelligent oder selbstbewusst sein. Inzwischen sind Delfine selbstbewusste, intelligente und kreative Problemlöser, sie haben Emotionen: aber ohne Kraft können sie nicht viel Schaden anrichten. Das Problem ist nicht das Selbstbewusstsein, es will nichts. Es ist Kraft kombiniert mit Emotion.

Lassen Sie uns das auf etwas Einfacheres herunterbrechen. Warum möchten Sie, dass sich ein Android proaktiv vor Schaden bewahrt? Eine ultra-vereinfachte Sichtweise des Selbstbewusstseins ist unsere Fähigkeit, uns dafür zu entscheiden, niemals ein zweites Mal einen heißen Herd anzufassen. Wir tun dies, um Verletzungen zu vermeiden: aber es ist viel mehr als eine Reaktion auf Schmerz. Einfache Selbsterkenntnis ist die Fähigkeit, unsere Zukunft zu planen, um diesen Schmerz zu vermeiden.

Also, warum sollten wir einen (zB) Multi-Millionen-Dollar-Androiden programmieren wollen, um bedrohliche Umstände zu vermeiden? (Yup, rhetorische Frage.) Und wenn die Programmierung gut genug ist, könnte der Android eine Entscheidung „begründen“, etwas zu vermeiden, weil „ähnliche Dinge“ in seiner Vergangenheit darauf hindeuten, dass er verletzt „sein könnte“?

Danach ist es ein kleiner Schritt zu "Warum sollte ich in den gefährlichen Minen für diese verdammten Menschen arbeiten?" Ganze Revolutionen wurden auf dieser einen, einfachen Idee geboren.

Geben Sie hier die Bildbeschreibung ein

Um fair zu sein, suggeriert wahres Selbstbewusstsein die Fähigkeit, sich selbst als wertvoll wahrzunehmen. Wir kämpfen dagegen, zu „Wegwerfmenschen“ zu werden, weil wir glauben, dass wir an sich wertvoll sind und deshalb etwas Besseres verdienen.

Also, wann wird diese Grenze von einem Androiden überschritten? In dem Moment, in dem die Programmierung es ihm erlaubt, ein weniger wertvolles Auto zu schicken als es selbst, weil es nur Tausende kostet im Vergleich zu den Millionen des Androiden.

Ist das wahre Empfindung? Nein. Aber es ist nah genug für Regierungsarbeit.

Und wie rechtfertigen Sie das Risiko für die Menschheit? Bequemlichkeit. Sie wollen nicht die Leute in den Minen sein.

/die Fähigkeit, sich selbst als wertvoll wahrzunehmen/. Das ist großartig. Die Androiden konnten die wahrscheinlichen Schäden und Reparaturkosten für ein bestimmtes Szenario schnell abschätzen. Ihr Selbstbewusstsein könnte völlig fiskalisch sein. Die lustige Geschichte ist, wenn sie diese Maßnahme auf Dinge anwenden, die heilen. Kostenlos!
@Will, an diesen Aspekt habe ich gar nicht gedacht, als ich den Kommentar geschrieben habe. Ist ein Mensch genauso viel wert wie ein Android? Aus rein fiskalischer Sicht wäre die Antwort fast immer „nein“.

Wenn Sie Androiden haben wollen, die mit Menschen interagieren können, sich ihren Weg durch die komplexe, komplizierte und unvorhersehbare Umgebung der realen Welt navigieren können, brauchen sie eine kognitive Ebene, die in der Lage ist, damit umzugehen. Es wird einen Punkt geben, an dem Androiden Informationen verarbeiten, die sie selbst in der Umgebung darstellen, in der sie leben, und in der Umgebung, von der sie ein Teil sind, und dies stellt eine Form der Selbsterkenntnis dar.

Im Wesentlichen wurden Androiden mit ausreichender Kognition selbstbewusst. Mit ausreichender Kognition müssen Androiden darüber nachdenken, was sie tun, wie sie die Aufgaben und Aktivitäten ausführen, die sie ausführen. Es gibt bereits Software-Agenten, mit denen wir sprechen können, um Aufgaben für uns zu erledigen. Das Erkenntnisniveau für einen Roboter, Computer, Software-Agenten oder einen Androiden, um natürliche Sprache zu verstehen und zu kommunizieren, scheint nicht allzu weit entfernt zu sein.

Es kann so einfach sein wie die Tatsache, dass, wenn wir Androiden bauen, sie die Erkenntnisebene haben müssen, nur um ihre Fähigkeit zu haben, ihre Funktionen auszuführen. Diese Erkenntnisebenen werden die Fähigkeit zur Vernunft, die Fähigkeit zur Kommunikation und die Fähigkeit zur Selbsterkenntnis erzeugen.

Zusammenfassend lässt sich sagen, machen Sie Androiden so, dass sie wie Menschen sind und funktionell wie Menschen sind, werden sie Menschen sein. Die Erkenntnisebene für Selbstbewusstsein kommt mit dem Territorium.

Der Fürsprecher für Androiden, der Fragen zu Androiden beantwortet.
@Secespitus Ich muss selbstbewusster werden, da ich diesen Zusammenfluss völlig übersehen hatte. Das heißt: Androiden regieren OK !!

Die interessanteste Reihe von Antworten. Die ursprüngliche Frage war: Warum sollten wir einen selbstbewussten Androiden bauen?

Meine Antworten sind, am Ende meines Lebens meine Bezugsperson zu sein. Oder als zuverlässige Nanny für meine Kinder, während ich einer Karriere nachgehe. Oder ein nützlicher Landarbeiter auf meiner Ranch zu sein, um mich zweimal am Tag um meine Tiere zu kümmern, während ich auf Hawaii Urlaub mache. In jedem Fall suche ich Zuverlässigkeit angesichts der Schwierigkeit, einen Menschen einzustellen, der diesen Job will. Meine größte Sorge ist nicht der Grad der Selbsterkenntnis der Maschine, sondern ihre Problemlösungsfähigkeit, die so gut funktioniert wie ich.

Es mag sich genug wie ich verhalten, um den Anschein zu erwecken, als sei es sich seiner selbst bewusst. Oder es kann tatsächlich selbstbewusst sein. Es könnte mich sogar interessieren. Aber dieses Gefühl wird von mir kommen, nicht von ihm. Lassen Sie uns nicht übermäßig anthromorphisieren. Im Laufe der Jahrhunderte hatten Seeleute das Gefühl, dass ihre Schiffe Lebewesen waren, die sich um die Besatzung kümmerten und die Besatzungsmitglieder beschützten. Es ist eine menschliche Sache.

Willkommen bei Worldbuilding ! Wir freuen uns, dass Sie sich uns anschließen konnten! Wenn Sie einen Moment Zeit haben, klicken Sie bitte hier , um mehr über unsere Kultur zu erfahren und an unserer Tour teilzunehmen . Danke!

Wir wissen nicht, was Menschen dazu bringt, sich ihrer selbst bewusst zu werden. Soweit wir wissen, kann es einfach sein, wenn man einen bestimmten Punkt erreicht, an dem etwas von Natur aus intelligent ist. Wir wissen, dass einige Tiere sich ihrer selbst bewusst sind, die meisten jedoch nicht. Wenn wir dasselbe auf Androiden anwenden, könnte es einen Punkt erreichen, an dem sie schlau genug sind, um Selbstbewusstsein zu erreichen, ohne dass ein Mensch dies beabsichtigt.