Welche ethische Verantwortung könnte dem Schöpfer eines künstlichen Bewusstseins auferlegt werden?

Oder anders gesagt, was sind die Implikationen dieses Schöpfungsakts? Wäre es unethisch, dies überhaupt zu verfolgen?

Unter dem Zitat „ Welche ethischen Regeln müssen Entwickler von KI aus humanen Gründen einhalten? “ (das ich bei der Suche nach Fragen wie dieser gefunden habe) lautet die Antwort:

Wenn du etwas erschaffst, das Bewusstsein und Gefühle hat, dann hast du dich gerade einer riesigen Anzahl ethischer Verantwortlichkeiten geöffnet. Dies zu tun, ohne vorher herausgefunden zu haben, was diese Verantwortlichkeiten sind, wäre ziemlich unethisch.

Von da an, welche Verantwortlichkeiten wären damit verbunden? Sollte ich es vermeiden, ein künstliches Bewusstsein zu schaffen?

Unterscheidet es sich von den ethischen Überlegungen, ein Kind zu bekommen?
Das wäre sicherlich eine gültige Sichtweise auf die Angelegenheit, aber denken Sie daran, dass das „Kind“ in diesem Fall in einem Computer gefangen ist – in digitalem Format – und das einzige seiner Art ist …

Antworten (1)

Bevor wir zu weit in die Ethikdiskussion gehen, müssen wir wissen, ob es überhaupt möglich ist, dass eine KI lebt oder Gefühle hat.

In meinem Promotionsthema geht es eigentlich darum, eine Taxonomie (oder möglicherweise Ontologie) für solche Begriffe zu erstellen, wie Sie sie hier verwenden.

Allgemein gesagt (in dieser Taxonomie);

Bewusstsein = Die Fähigkeit, Umweltüberlegungen als Faktor in die Überlegungen einfließen zu lassen

Selbstbewusstsein = Die Fähigkeit, die eigenen Überlegungen als Faktor in diesen Überlegungen zu berücksichtigen (fast Meta-Überlegung)

Bewusstsein = eine „Always On“-Fähigkeit, neue Daten zu sammeln und sie für zukünftige Überlegungen und Überlegungen in den bestehenden Informationspool zu integrieren

Lebendigkeit = die Fähigkeit, die eigenen Gedanken, Überlegungen und Entscheidungen durch Transzendenz der ursprünglichen Programmierung zu lenken und eine interne Ontologie der „Bedeutung“ aufzubauen

Beachten Sie, dass keiner von ihnen über Gefühle spricht. Denn selbst wenn eine computerbasierte KI jemals als „lebendig“ angesehen werden könnte (ich glaube nicht, dass dies aus Gründen zu weit gefasst ist, um sie in diese Antwort aufzunehmen), wäre sie kein Mensch.

Menschen werden von mehr als ihrem Intellekt angetrieben. Die Evolution hat die früheren, primitiveren Abschnitte des Gehirns wie das Kleinhirn (Instinkt, fest verdrahtete Elektrik) und das Limbische (Emotion, chemisch) an Ort und Stelle gelassen, nachdem sie die Großhirnrinde (Vernunft, weich verdrahtete Elektrik) bei Säugetieren und vor allem beim Menschen implementiert hatte . (Dies ist alles eine Vereinfachung für diese Antwort, aber technisch nicht falsch)

Computer haben dieses Gepäck nicht. Ein Computer kommt einem menschlichen Gehirn am nächsten, wenn er isoliert ist, und selbst das ist eine Annäherung. Das praktische Ergebnis davon ist, dass eine KI in der Lage sein kann, neue Dinge zu lernen und vernünftige Antworten und Urteile zu einem bestimmten Problembereich zu liefern; sie sind möglicherweise sogar in der Lage, Emotionen und komplexe soziale Verhaltensweisen zu simulieren. Was sie nicht tun können, ist, Emotionen zu empfinden oder sich von einem angeborenen Überlebensinstinkt treiben zu lassen, wie Menschen es sein können.

Bestenfalls wäre eine KI mit menschlicher Intelligenz einem Soziopathen sehr ähnlich, der möglicherweise gelernt hat, menschliche soziale und emotionale Reaktionen nachzuahmen, um sich in seine Gesellschaft einzufügen.

Sicher, wir könnten eine KI so programmieren, dass sie das Überleben bevorzugt, aber bevor wir das Skynet-Szenario aufrufen, sollte angemerkt werden, dass wir bereits ein einfaches Programm für ein Computersystem mit einer offensiven Hardwareplattform schreiben können, das uns heute sehr effektiv alle auslöschen könnte; Dafür ist keine KI-Ausgereiftheit erforderlich.

Zu diesem Zweck ist der Ersteller einer KI dafür verantwortlich, sicherzustellen, dass sie für den Zweck geeignet ist (wie jedes andere Programm) und dass sie so konzipiert wurde, dass sie keinen Schaden verursacht. In diesem Fall haben die Autoren der Maschinenfirmware einer Schmelze die gleiche Verantwortung, sicherzustellen, dass die Maschinen nicht zufällig geschmolzenes Metall auf Fabrikarbeiter schütten. Der Designer einer KI, die beispielsweise an der Börse arbeitet, muss ebenfalls vorsichtig sein, da er oder sie für die Ergebnisse ihres Programms verantwortlich ist. Der Unterschied besteht darin, dass der Firmware-Schreiber eine bessere Vorstellung davon hat, WIE diese Ausgaben generiert werden, und eine größere Kontrolle darüber hat.

Das Problem hier ist nicht der Computer; Wir sind es. Aufgrund unserer empathischen „Programmierung“ neigen wir dazu, Gegenstände aus unserer Umgebung zu vermenschlichen. Als Kinder spielen wir mit Puppen, Teddybären, Lego-Minifiguren usw. und tun so, als wären sie Menschen. Wir geben unseren GPS-Geräten Namen, weil sie mit uns sprechen. Im Falle der KI erschaffen wir wirklich eine weit ausgefeiltere „Puppe“, da sie in der Lage sein wird, mit uns zu sprechen, uns auf soziale Weise zu engagieren, uns Antworten zu geben, aus denen wir eine gewisse Intelligenz ableiten können, und so weiter wir nennen die KI intelligent und gehen daher davon aus, dass sie lebt. Das wird immer noch unsere Schlussfolgerung sein, nicht die Implikation des Computers.

Praxisbeispiel; Ich habe ein einfaches Computerprogramm gebaut, das Pick Up Sticks mit Ihnen spielen kann. Sie können beliebig viele Stäbchen in den Stapel legen, jede Anzahl, die Sie auf einmal aufnehmen können, und ob der zuletzt aufgenommene Stäbchen gewinnt oder verliert. Es ist SEHR schwer zu schlagen. In einigen Konfigurationen ist es unmöglich zu schlagen. Liegt das daran, dass das Computerprogramm „intelligent“ ist? Nein. Das liegt daran, dass Pick Up Sticks „Mathe Complete“ ist und ich das Programm mit der mathematischen Formel für das Spiel geschrieben habe. Dieses Programm ist sich dessen nicht bewusst, kann seine eigene Programmierung nicht übertreffen, wird aber oft als „sehr schlau“ beschrieben, zumindest bis die Leute die Formel lernen, an welcher Stelle sie im Spiel genauso schwer zu schlagen sind.

Kurz gesagt, es ist viel wahrscheinlicher, dass wir aus einem Computeralgorithmus mehr Gefühle und Lebendigkeit ableiten, als er jemals besitzen kann. Das bedeutet nicht, dass wir nicht vorsichtig sein sollten; es bedeutet nur, dass ein Programmierer die Auswirkungen der Programmausgaben mehr berücksichtigen sollte als das „Wohl“ des Programms, wenn er ein leistungsstarkes Programm wie eine KI erstellt.

Aber der Argumentation halber...

Nehmen wir an, dass eine „funktional äquivalent zu menschlicher“ KI möglich ist und jemand beschließt, sie zu bauen (gemäß Kommentaren);

Was du hast, ist ein Kind.

Wir ziehen diese ständig auf, und als Eltern sind wir (erstens) für ihr Wohlergehen, (zweitens) für ihre Handlungen und (letztens) für ihre Fähigkeit verantwortlich, unserer Gesellschaft als gut angepasste Mitglieder und Mitwirkende beizutreten.

Sicher, das ist insofern anders, als das „Kind“ in gewisser Weise viel mächtiger ist als ein Menschenkind, aber gleichzeitig viel zerbrechlicher. Die Pflege einer solchen „Kreatur“ betritt also unbekanntes Terrain, aber um es hochzurechnen, wäre der Schöpfer dafür verantwortlich, sicherzustellen, dass seine oder ihre Schöpfung ihren Bedarf (Strom?) deckt und nur Zugang zu Material hat, das ihrem Entwicklungsstand entspricht , hat jede Gelegenheit, sich mit gut angepassten Menschen und möglicherweise anderen seiner Art zu treffen usw.

Wir müssten uns nicht um einige unserer biologischen Blockaden kümmern (wie die Einschränkung des Zugangs zu Material über die menschliche Fortpflanzung), aber es könnten neue eingeführt werden; Wollen wir wirklich, dass es weiß, dass es zum Beispiel durch einen anhaltenden Stromausfall beendet werden kann?

Die größte ethische Sorge bestünde darin, sicherzustellen, dass es sich nicht selbst reproduzieren kann. Es ist eine Sache, ein Kind zu erschaffen, eine ganz andere, eine neue Spezies zu erschaffen. Wenn man dazu bereit wäre, wäre man gegenüber dem Rest der Menschheit für jeglichen Schaden verantwortlich, der von der Spezies angerichtet wird, was viel schwieriger zu kontrollieren ist, als es ein exotisches Kind wäre.

Dies ist eine sehr interessante Lektüre, und ich mag besonders die Informationen zur Taxonomie – ich war mir zu Beginn überhaupt nicht sicher, wie ich auf die verschiedenen Stücke verweisen sollte. Um der Frage willen würde ich es jedoch vorziehen, dass die Annahme für eine Antwort, nach der ich suchen würde, wäre, dass das geschaffene künstliche Bewusstsein funktionell identisch mit einem Menschen wäre, wenn auch in einem Computer gefangen. Danke schön! :)
Ich kann dies nach Ihren netten Änderungen leider nicht wirklich positiv bewerten. :( Sehr Schön. Danke.
„Was sie nicht tun können, ist, Emotionen zu empfinden oder von einem angeborenen Überlebensinstinkt getrieben zu werden, wie Menschen es sein können.“ Diese Aussage entbehrt jeder Beweisgrundlage. Unser Gehirn ist eine komplexe, aber banale biologische Maschine, die Emotionen basierend auf chemischen Prozessen erzeugt. Nichts deutet darauf hin, dass eine von phänomenologischen Wesen entworfene Maschine nicht das aktuelle menschliche Verhalten nachbilden könnte. Um es klar zu sagen, ich glaube nicht, dass eine solche Maschine irgendeine Ähnlichkeit mit Computern von heute hätte.