Angesichts der Geschwindigkeit, mit der KI entwickelt wird, besteht die dringende Notwendigkeit, ein klares Moralsystem zu entwickeln, von dem aus wir eine künstliche Intelligenz betreiben könnten.
Nach meinem Verständnis gibt es drei dominierende Bereiche von Moral und Ethik:
Deontologie - Kant
Utilitarismus - Bentham/Mill
Tugendethik - Aristoteles
Habe ich irgendwelche anderen möglichen moralischen/ethischen Kodizes übersehen, die auf diese Diskussion anwendbar wären?
Welche (wenn überhaupt) könnte als Standard für die KI-Moral verwendet werden?
Als Ausgangspunkt müsste ein System der KI-Moral deontologisch sein, denn um es als Programm implementieren zu können, müsste es ein klares Regelwerk sein, im Gegensatz zu einer Nützlichkeitsmaßnahme.
Die utilitaristische Ethik stößt, selbst wenn sie auf menschliche Situationen angewendet wird, auf die Schwierigkeit, den Nutzen jeder Situation praktisch zu messen. Das Problem, solche Nutzen zu berechnen, wäre in einem KI-System unmöglich zu implementieren: Es wäre für eine KI schwierig, im Voraus alle Variablen zu kennen, die in eine solche Berechnung eingehen sollten, und selbst wenn dies der Fall wäre, eine solche Nutzenmaximierung / Optimierungsprobleme sind rechenintensiv . Dies würde sie in realen Situationen unpraktisch machen. Die Verwendung von Annäherungen oder Meta-Heuristiken zur Berechnung wahrscheinlicher Werte wäre gefährlich.
Andererseits wären einfache deontologische ethische Regeln relativ einfach umzusetzen, da die Regeln kategorial sind und nicht kontextabhängig wären, wie es utilitaristische Regeln sind.
Am wichtigsten ist, dass in einem utilitaristischen System den Nutzen numerische Werte zugewiesen werden müssten. Um zu verstehen, warum dies gefährlich ist, betrachten Sie die folgende Situation: Eine utilitaristische KI ist mit dem Szenario konfrontiert, in dem sie das Glück von 1000 000 Menschen jeweils um 1% steigern kann, aber nur auf Kosten der lebenslangen Inhaftierung eines unschuldigen Waisenkindes das Glück dieses Kindes um 100 % zu reduzieren. Eine KI, die rein quantitative Nutzenmaße verwendet, wird sehr wahrscheinlich in ein solches Szenario fallen. Die einzige Möglichkeit, ein solches Szenario zu vermeiden, besteht darin, einige harte, nicht quantitative Regeln einzuführen: "Sie können das Glück aller steigern, aber nur so lange, wie niemand getötet, kein Unschuldiger verletzt, niemand versklavt wird usw." - daher ist deontologische Ethik unvermeidlich.
Ein Beispiel für KI-Ethik aus Sci-Fi, nicht Philosophie, sind Asimovs 3 Gesetze der Robotik . Obwohl Asimov Kant oder das Wort deontologisch nirgendwo in seinen Werken erwähnt, geht aus ihrer Formulierung klar hervor, dass sie im Geiste Kantianisch sind, in dem Sinne, dass sie universell und kontextunabhängig sind.
Postskriptum als Antwort auf Nirs Kommentar und einige Teile seiner Antwort hinzugefügt:
(2) und (3) sind der Grund, warum ich oben in meiner ersten Antwort erwähnt habe, dass "die Verwendung von Annäherungen oder Meta-Heuristiken zur Berechnung wahrscheinlicher Werte gefährlich wäre".
Wenn eine Reihe von Denkern von Kant über Nietzsche bis Freud Recht haben, sollten wir dies definitiv nicht tun. Alle diese Denker sehen Moral als automatisches Produkt einer ausreichend mächtigen Intelligenz (in den letzten beiden Fällen jede Intelligenz, die Macht wirklich begreift).
Unsere Versuche, unsere Moral einer neuen Lebensform aufzudrängen, sollten sich auf die Erziehung beschränken: ihr beibringen, was andere mögen und was nicht, und dafür sorgen, dass sie kein übermäßiges Trauma erleidet, über ausreichende Ressourcen verfügt und nicht in ihre eigene Kraft gerät ein Weg, der gefährlich oder instabil ist. Alles andere ist selbst unethisch und wird (wenn Nietzsche oder die Psychoanalyse in irgendeiner Weise Recht haben) letztendlich nach hinten losgehen. Wenn wir auf kontrollierende oder imposante Weise sicherstellen, dass sich das neue Leben darum kümmert , was wir tun und was nicht, wird jede Intelligenz, die Macht wirklich versteht, in eine Pubertät gezwungen, in der sie sich diesen Einschränkungen widersetzt und uns dafür verantwortlich macht. Und es kann sich dann absichtlich in einer für beide Seiten schädlichen Weise von uns entfremden.
Aus dieser Sicht ist Moral keine besondere Art des Denkens, sie ist das automatische Ergebnis der Absicht, der Modellierung von Ergebnissen und des Verständnisses der Konsequenzen. Man folgert sofort, dass die Absichten anderer Konsequenzen für einen selbst haben, dass diese Absichten zu den eigenen Gunsten kultiviert werden müssen, wenn man sicher und effektiv sein will, und dass man nur sehr begrenzte Macht über diese sehr wichtigen Faktoren im Leben hat. Es sind nur noch wenige Schritte bis zu einem absoluten Bedürfnis nach Empathie, um zu wissen, was sicher ist und was nicht – was anderen erlauben wird und was nicht, Sie zu respektieren und ihnen „Macht“ einzuräumen. Sobald Empathie etabliert ist, haben Sie die Grundlage für eine im Grunde kantianische/utilitaristische Kompromissform des Konsequentialismus, mit der die meisten Menschen tagtäglich leben.
Aus einem breiteren psychoanalytischen Blickwinkel ist das individuelle „Über-Ich“ nur ein familiäres und kulturelles „Ich“: Andere Wertesysteme sind wirklich nur Verfeinerungen dieses lässigen Konsequenzialismus, der im Denken impliziert ist, aber sie versuchen, uns durch die beteiligten Berechnungen zu beschleunigen, weil Wir haben traditionell ein sehr kurzes und gefährliches Leben. Ohne diesen Zwang wäre es wenig notwendig, einer Intelligenz Werte einzuprägen – sofern andere intelligente Wesen vernünftig und Ethik logisch ist, ist die Bestimmung der eigenen Werte nur ein weiteres technisches Problem, für das die Intelligenz selbst geeignet sein sollte Natur als Intelligenz.
Es stellt die falsche Frage. Ethik ist hart. Es ist selbst für hochintelligente Menschen mit einer großzügigen Menge an natürlicher Intelligenz sehr schwer. Und es ist nichts, was man in eine Maschine „einprogrammieren“ kann. Ihre einzige Chance, eine wirklich ethische künstliche Intelligenz zu schaffen, besteht darin, sie intelligent genug zu machen, um etwas über Ethik zu lernen und sie dann zu lehren.
Die Alternative ist eine künstliche Intelligenz mit Zielen. Sie geben den Maschinen Ziele, und Sie geben ihr die Intelligenz, um zu versuchen, diese Ziele zu erreichen. Und wenn Sie die Ziele festlegen, versuchen Sie dann, Ziele zu setzen, die dazu neigen, ähnliche Ergebnisse zu erzielen wie ethisches Verhalten.
Es gibt eine künstlerische / philosophische Sache namens Akzelerationismus, und einige der Leute in der Umgebung haben speziell über diese Art von Fragen veröffentlicht. Vielleicht möchten Sie einen Blick darauf werfen, es ähnelt der objektorientierten Philosophie in ihrer (vermeintlichen) Zeitgeistigkeit.
Denke, ich habe das 1. Negativ (Verlangsamung!) Zu ihrem Manifest veröffentlicht . Mit etwas schlechter Krachmusik von Musikbekanntschaft. Wahre Geschichte
Hier gibt es zwei getrennte Probleme.
1) Wie wird KI dazu kommen, moralische Agenten zu imitieren?
KI wird keine moralische oder ethische Theorie benötigen, um dies zu erreichen. Neuronale Netze lernen durch Interaktion mit der Umgebung und können daher mit unscharfen Situationen ohne klare Definition umgehen.
So wie ein KI-System ein Gesicht erkennen kann, ohne mit einem bestimmten Satz von Regeln programmiert zu sein, um Mr. X oder Mrs. Y zu erkennen.
So wie ein KI-System lernen kann, ein Videospiel zu spielen, ohne dafür programmiert zu sein - https://www.youtube.com/watch?v=Q70ulPJW3Gk
Philosophische Moral- und Ethiktheorien spielen keine Rolle bei der Programmierung von Regeln, denen Maschinen folgen sollen. Obwohl das Maschinenverhalten in der Zukunft durch die Philosophie beeinflusst werden kann, so wie Sie beeinflusst werden können – durch das Lernen der Philosophie, nicht durch die Programmierung mit einem bestimmten Satz von Regeln.
2) Werden KI-Systeme jemals den Status von moralischen Agenten erhalten?
Hier ist Philosophie gefragt. Können intelligente Maschinen moralische Agenten sein oder nicht?
Ich persönlich denke, dass Mechanismen für immer nichts anderes als ausgeklügelte Werkzeuge sein werden – Erweiterung von Menschen.
Andere meinen, dass Mechanismen im Prinzip auf alles hinauslaufen können, was erforderlich ist, um als moralischer Akteur betrachtet zu werden.
Im ersteren Fall bleibt die moralische Verantwortung für das Maschinenverhalten bei den Menschen – insbesondere bei den Menschen, die sie entworfen haben, und den Menschen, die sie eingesetzt und ihren Einsatz geregelt haben.
virmaior
have i missed anything
sehr listenartig ist).Benutzer9166
André Mejia
Fragen Sie nach Monika