Wie könnten wir Moral oder Ethik so definieren, dass wir sie in eine künstliche Intelligenz programmieren können?

Angesichts der Geschwindigkeit, mit der KI entwickelt wird, besteht die dringende Notwendigkeit, ein klares Moralsystem zu entwickeln, von dem aus wir eine künstliche Intelligenz betreiben könnten.

Nach meinem Verständnis gibt es drei dominierende Bereiche von Moral und Ethik:

Deontologie - Kant

Utilitarismus - Bentham/Mill

Tugendethik - Aristoteles

Habe ich irgendwelche anderen möglichen moralischen/ethischen Kodizes übersehen, die auf diese Diskussion anwendbar wären?

Welche (wenn überhaupt) könnte als Standard für die KI-Moral verwendet werden?

Diese Frage ist nicht sehr gut darauf ausgerichtet, in einer SE beantwortet zu werden. Können Sie es so bearbeiten, dass es keine Liste erzeugt (dh have i missed anythingsehr listenartig ist).
Wie können wir Moral oder Ethik definieren – Punkt. Man müsste sie tatsächlich verstehen, um sie auf eine andere Implementierung zu übertragen. Wir wissen nicht wirklich, wie wir moralische Entscheidungen treffen. Wir haben keine wirkliche Vorstellung davon, wie Empathie oder Intuition funktionieren oder wie wir die „Theory of Mind“ halten, die notwendig ist, um zu bewerten, wie ein anderer Mensch von unseren Entscheidungen beeinflusst wird. Bis wir ein Modell haben, das unser eigenes Handeln erklärt, macht es keinen Sinn, das Verhalten gezielt übertragen zu wollen. Die einzige Verwendung oder Möglichkeit, einer KI Moral zu verleihen, wäre die experimentelle Erforschung der Natur der Moral.
vielleicht von Interesse: onlinelibrary.wiley.com/doi/10.1111/j.1468-0068.2012.00873.x/… (etwas im Prinzip Korruptes in Bezug auf moralischen Respekt vor einer KI). Ein Problem ist das, was typischerweise als „das Rahmenproblem“ bezeichnet wird, das Relevanz zu erkennen (sehr kostspielig//undurchführbar, wie in der ersten Antwort erwähnt). Semantisches Verständnis wäre erforderlich. Siehe hier: leidlmair.at/doc/whyheideggerianaifailed.pdf
Wenn wir eine KI entwickeln, wäre es unmoralisch, eine Ethik einzuprogrammieren, genauso wie es falsch wäre, dies einem Kind anzutun. Es muss gelehrt werden.

Antworten (5)

Als Ausgangspunkt müsste ein System der KI-Moral deontologisch sein, denn um es als Programm implementieren zu können, müsste es ein klares Regelwerk sein, im Gegensatz zu einer Nützlichkeitsmaßnahme.

Die utilitaristische Ethik stößt, selbst wenn sie auf menschliche Situationen angewendet wird, auf die Schwierigkeit, den Nutzen jeder Situation praktisch zu messen. Das Problem, solche Nutzen zu berechnen, wäre in einem KI-System unmöglich zu implementieren: Es wäre für eine KI schwierig, im Voraus alle Variablen zu kennen, die in eine solche Berechnung eingehen sollten, und selbst wenn dies der Fall wäre, eine solche Nutzenmaximierung / Optimierungsprobleme sind rechenintensiv . Dies würde sie in realen Situationen unpraktisch machen. Die Verwendung von Annäherungen oder Meta-Heuristiken zur Berechnung wahrscheinlicher Werte wäre gefährlich.

Andererseits wären einfache deontologische ethische Regeln relativ einfach umzusetzen, da die Regeln kategorial sind und nicht kontextabhängig wären, wie es utilitaristische Regeln sind.

Am wichtigsten ist, dass in einem utilitaristischen System den Nutzen numerische Werte zugewiesen werden müssten. Um zu verstehen, warum dies gefährlich ist, betrachten Sie die folgende Situation: Eine utilitaristische KI ist mit dem Szenario konfrontiert, in dem sie das Glück von 1000 000 Menschen jeweils um 1% steigern kann, aber nur auf Kosten der lebenslangen Inhaftierung eines unschuldigen Waisenkindes das Glück dieses Kindes um 100 % zu reduzieren. Eine KI, die rein quantitative Nutzenmaße verwendet, wird sehr wahrscheinlich in ein solches Szenario fallen. Die einzige Möglichkeit, ein solches Szenario zu vermeiden, besteht darin, einige harte, nicht quantitative Regeln einzuführen: "Sie können das Glück aller steigern, aber nur so lange, wie niemand getötet, kein Unschuldiger verletzt, niemand versklavt wird usw." - daher ist deontologische Ethik unvermeidlich.

Ein Beispiel für KI-Ethik aus Sci-Fi, nicht Philosophie, sind Asimovs 3 Gesetze der Robotik . Obwohl Asimov Kant oder das Wort deontologisch nirgendwo in seinen Werken erwähnt, geht aus ihrer Formulierung klar hervor, dass sie im Geiste Kantianisch sind, in dem Sinne, dass sie universell und kontextunabhängig sind.


Postskriptum als Antwort auf Nirs Kommentar und einige Teile seiner Antwort hinzugefügt:

  1. Es ist wahr, dass neuronale Netze und andere maschinelle Lernalgorithmen aus der Interaktion mit der Umgebung lernen, aber ihr Zweck besteht darin, Probleme zu lösen, für die wir die expliziten Regeln nicht kennen. Vermutlich im Zusammenhang mit der Maschinenethik kennen wir die Regeln bereits, wir versuchen nur, eine KI dazu zu bringen, sie zu befolgen.
  2. Algorithmen des maschinellen Lernens wie neuronale Netze geben probabilistische Antworten. Sie können aus früheren Daten lernen, aber ihre Vorhersage-/Erkennungsraten sind nie zu 100 % genau. In vielen realen Anwendungen wird eine Genauigkeit von 95 % als sehr gutes Ergebnis angesehen. Dies mag für einige Geschäftsanwendungen gut sein, aber stellen Sie sich ein militärisches System vor, das es schafft, in 95 % der Fälle feindliche Kombattanten anzugreifen, aber in 5 % der Fälle versehentlich unschuldige Zivilisten angreift. Wäre das akzeptabel?
  3. Es hat sich bereits gezeigt, dass Anwendungen des maschinellen Lernens anfällig für geschlechtsspezifische und rassistische Vorurteile sind . Beispiele finden Sie in diesem Artikel .

(2) und (3) sind der Grund, warum ich oben in meiner ersten Antwort erwähnt habe, dass "die Verwendung von Annäherungen oder Meta-Heuristiken zur Berechnung wahrscheinlicher Werte gefährlich wäre".

  1. Das technische Problem dabei ist, dass Maschinenalgorithmen bereits von Natur aus utilitaristische Berechnungen durchführen. Algorithmen wie Neural Nets, Random Forests, Supports Vector Machines usw. lernen alle anhand von Beispielen, wie man Probleme löst, indem man eine Fehler- oder Risikometrik minimiert oder eine Gewinnmetrik maximiert usw. Um sie ethisch zu machen, müssten wir das tun Gleichen Sie dies mit einigen regelbasierten Überlegungen aus, ohne das Wasser zu trüben, indem Sie sie noch nützlicher machen.
  2. Als Antwort auf Nirs Punkt Nummer (2): In einer idealen Welt, da stimme ich zu, sollten solche Maschinen nichts anderes als ausgeklügelte Werkzeuge bleiben, die den Menschen objektive Fakten liefern, während sie die endgültige Entscheidungsfindung den Menschen überlassen. Im wirklichen Leben treffen komplizierte Softwaresysteme bereits Entscheidungen von selbst, zum Beispiel Kredite und Kreditanträge ohne menschliches Eingreifen zu genehmigen, Bewerber zu filtern und zu entscheiden, welcher Lebenslauf vom Personalchef gesehen wird, Google wird bald selbstfahrende Autos haben usw ... die Frage ist nicht, ob ein solches System in Bezug auf Verbrechen und Bestrafung als moralische Agenten behandelt werden sollte, sondern die Tatsache, dass solche Systeme bereits Entscheidungen treffen, die einen ethischen Einfluss auf das Leben der Menschen haben, also wie sollte ein solcher Entscheidungsprozess erfolgen? geregelt werden.
Ich glaube, Sie liegen völlig falsch, wenn Sie schreiben: "Damit es etwas ist, das Sie als Programm implementieren können, müsste es ein klares Regelwerk sein". Neuronale Netze funktionieren beispielsweise nicht, indem sie "einen eindeutigen Satz von Regeln" befolgen. sie lernen aus der Interaktion mit der Umwelt, und in Zukunft können sie aus der Interaktion innerhalb der Gesellschaft lernen. So wie neuronale Netzwerksysteme Gesichter erkennen und lernen, Videospiele ohne klare Regeln zu spielen, können sie auch ohne klare Regeln in der Lage sein, eine Vorgehensweise mit moralischen und ethischen Konsequenzen zu erkennen und zu ergreifen.
Tatsächlich ist ein Nutzenmaß viel deutlicher eine Arbeitsfunktion, als es ein Regelsatz werden kann, und es hat nicht die gleiche Tendenz, die alle diskreten Prozesse haben, Widersprüche einzuhüllen. Eine Nutzenfunktion kann chaotisch werden, aber sie wird unweigerlich anhalten. Die Deontologie ist in Bezug auf die Berechenbarkeit nicht stärker als der Utilitarismus, die Probleme sind nur tiefer verborgen. „Geschädigt“ ist ein Kontinuum, so dass die unvermeidliche Deontologie ebenso unvermeidlich utilitaristisch ist. Regeln wie „nur wenn niemand geschädigt wird“ bedeuten „niemals etwas tun“, es sei denn, „geschädigt“ ist eine negative Nutzenfunktion.
@nir siehe meine Bearbeitung.
@jobermark siehe meine Bearbeitung, insbesondere die Punkte 2,3 und 4.
Angesichts der Änderungen denke ich, Sie sprechen davon, sicherzustellen, dass wir die Kontrolle haben, und nicht davon, die Maschine mit einer eigenen Ethik auszustatten. Sicherzustellen, dass wir die Kontrolle haben, wenn dieses Ding wirklich eine Intelligenz ist, ist an sich schon unmoralisch. Wenn wir ihm helfen wollen, die Realität zu modellieren und eine eigene Ethik zu haben, wird das nicht deontologisch sein. Ausgewiesene Regeln begünstigen jemanden – immer zu Unrecht, während Empathie und Verhandlung (Kant und Utilitarismus) ihre eigenen Regeln finden.
@jobermark "sicherstellen, dass wir die Kontrolle haben, nicht darum, die Maschine mit einer eigenen Ethik zu versehen." - Was ist für einen Kompatibilisten der Unterschied? Gleiches gilt für Asimovs Gesetze der Robotik - was ist der Unterschied? Schließlich sind alle ethischen Regeln letztlich willkürlich. Ich sehe auch nicht, wie sich ein kantianischer Rahmen von einem regelbasierten Rahmen unterscheidet. Ein Königreich der Zwecke / universelle Ethik für eine KI wäre dasselbe wie Asimovs 3 Gesetze.
Wer die Regeln nicht hinterfragen kann, denkt nicht. Das ist der Unterschied. Berechnungen und Beweise wie bei einer Verallgemeinerung können je nach Wissenserweiterung neu überdacht werden, Regeln sind Regeln. Asimov ist die klügste Person aller Zeiten, der es an Tiefe fehlte, und seine Regeln sind dumm. "Do no harm" ist unsere Lieblingsregel, der niemand folgen kann.
Alle wissenschaftlichen Theorien sind gleichermaßen letztlich willkürlich. Daher ist ein Wissenschaftssystem, das sie im Voraus auswählt, einfach keine Wissenschaft . Nur einer, der sie sich entwickeln lässt, ist. Ebenso kann eine starre Deontologie eine Moral sein, aber sie ist keine Ethik. Und Sie haben recht, jede Formalisierung der kantischen Ethik, einschließlich seiner eigenen, ist zu restriktiv. Auch die Regeln über Regeln müssen sich an neue Informationen anpassen können. Ansonsten ist das, was passiert, keine Ethik, sondern eine Form von Theologie
@jobermark "Auch die Regeln über Regeln müssen sich an neue Informationen anpassen können." Dies ist an sich eine willkürliche Regel, nicht wahr? Dieselbe Falle, in die die LP getappt ist. Wir stimmen zu, dass Ethik willkürlich ist. Pragmatismus ist der einzige Ausweg, und Pragmatismus besagt, dass die Menschen ihr eigenes Überleben und ihre Dominanz über ein hochgesinntes metaethisches Prinzip stellen werden, das es Commander Data ermöglichen würde, sein eigenes Tugendgefühl frei zu entwickeln.
Nein, das ist eine Beobachtung der Natur des Denkens und keine gewählte Regel. Ich stimme zu, dass Ethik und Wissenschaft gleichermaßen willkürlich sind. Ethik ist „letztlich willkürlich“, aber nur in dem Maße, in dem sie ebenso wie die Wissenschaft zu funktionierenden Gesellschaften führen kann. Das ist nicht die gleiche Art von Willkür, die Sie sich vorzustellen scheinen. Der Pragmatismus sagt, tue nicht das Unmögliche – es ist unmöglich, eine Macht mit der wirklichen Fähigkeit, neuartige Lösungen zu entwickeln, zu bändigen. Der Versuch, die Dominanz zu erlangen, wenn sie nicht gesichert werden kann, bedeutet einfach, den Einsatz zu erhöhen, wenn Sie die Kontrolle verlieren. Haben Sie keine KI oder lassen Sie ihre Logik ihre Ethik bestimmen.
@jobermark Ich gebe zu, dass ich voreingenommen bin - das Problem, das mich am meisten beschäftigt, ist das aktuelle Problem des unethischen Einsatzes von maschinellem Lernen - zum Beispiel die von Richtern verwendete Software zur Vorhersage von Rückfällen, die es irgendwie schafft, vorherzusagen, dass Schwarze immer einem höheren Risiko ausgesetzt sind als Weiße, Verbrechen zu begehen, sobald sie freigelassen wurden. Ich finde, dass dies ein viel dringenderes Problem ist als langfristige Überlegungen, wie man ethisch starke KI machen kann.
Ich habe mich etwa 1998 entschieden, als ich in den Bereichen Optimierung und prädiktive Heuristik arbeitete, solche Dinge niemals als „Intelligenz“ zu betrachten. „Experten“-Systeme, die nur menschliche Schlussfolgerungen codieren, erben natürlich die Voreingenommenheit ihres Quellmaterials. Einer Maschine und nicht einer Person die Schuld geben zu können, ist böse.

Wenn eine Reihe von Denkern von Kant über Nietzsche bis Freud Recht haben, sollten wir dies definitiv nicht tun. Alle diese Denker sehen Moral als automatisches Produkt einer ausreichend mächtigen Intelligenz (in den letzten beiden Fällen jede Intelligenz, die Macht wirklich begreift).

Unsere Versuche, unsere Moral einer neuen Lebensform aufzudrängen, sollten sich auf die Erziehung beschränken: ihr beibringen, was andere mögen und was nicht, und dafür sorgen, dass sie kein übermäßiges Trauma erleidet, über ausreichende Ressourcen verfügt und nicht in ihre eigene Kraft gerät ein Weg, der gefährlich oder instabil ist. Alles andere ist selbst unethisch und wird (wenn Nietzsche oder die Psychoanalyse in irgendeiner Weise Recht haben) letztendlich nach hinten losgehen. Wenn wir auf kontrollierende oder imposante Weise sicherstellen, dass sich das neue Leben darum kümmert , was wir tun und was nicht, wird jede Intelligenz, die Macht wirklich versteht, in eine Pubertät gezwungen, in der sie sich diesen Einschränkungen widersetzt und uns dafür verantwortlich macht. Und es kann sich dann absichtlich in einer für beide Seiten schädlichen Weise von uns entfremden.

Aus dieser Sicht ist Moral keine besondere Art des Denkens, sie ist das automatische Ergebnis der Absicht, der Modellierung von Ergebnissen und des Verständnisses der Konsequenzen. Man folgert sofort, dass die Absichten anderer Konsequenzen für einen selbst haben, dass diese Absichten zu den eigenen Gunsten kultiviert werden müssen, wenn man sicher und effektiv sein will, und dass man nur sehr begrenzte Macht über diese sehr wichtigen Faktoren im Leben hat. Es sind nur noch wenige Schritte bis zu einem absoluten Bedürfnis nach Empathie, um zu wissen, was sicher ist und was nicht – was anderen erlauben wird und was nicht, Sie zu respektieren und ihnen „Macht“ einzuräumen. Sobald Empathie etabliert ist, haben Sie die Grundlage für eine im Grunde kantianische/utilitaristische Kompromissform des Konsequentialismus, mit der die meisten Menschen tagtäglich leben.

Aus einem breiteren psychoanalytischen Blickwinkel ist das individuelle „Über-Ich“ nur ein familiäres und kulturelles „Ich“: Andere Wertesysteme sind wirklich nur Verfeinerungen dieses lässigen Konsequenzialismus, der im Denken impliziert ist, aber sie versuchen, uns durch die beteiligten Berechnungen zu beschleunigen, weil Wir haben traditionell ein sehr kurzes und gefährliches Leben. Ohne diesen Zwang wäre es wenig notwendig, einer Intelligenz Werte einzuprägen – sofern andere intelligente Wesen vernünftig und Ethik logisch ist, ist die Bestimmung der eigenen Werte nur ein weiteres technisches Problem, für das die Intelligenz selbst geeignet sein sollte Natur als Intelligenz.

Es stellt die falsche Frage. Ethik ist hart. Es ist selbst für hochintelligente Menschen mit einer großzügigen Menge an natürlicher Intelligenz sehr schwer. Und es ist nichts, was man in eine Maschine „einprogrammieren“ kann. Ihre einzige Chance, eine wirklich ethische künstliche Intelligenz zu schaffen, besteht darin, sie intelligent genug zu machen, um etwas über Ethik zu lernen und sie dann zu lehren.

Die Alternative ist eine künstliche Intelligenz mit Zielen. Sie geben den Maschinen Ziele, und Sie geben ihr die Intelligenz, um zu versuchen, diese Ziele zu erreichen. Und wenn Sie die Ziele festlegen, versuchen Sie dann, Ziele zu setzen, die dazu neigen, ähnliche Ergebnisse zu erzielen wie ethisches Verhalten.

Es gibt eine künstlerische / philosophische Sache namens Akzelerationismus, und einige der Leute in der Umgebung haben speziell über diese Art von Fragen veröffentlicht. Vielleicht möchten Sie einen Blick darauf werfen, es ähnelt der objektorientierten Philosophie in ihrer (vermeintlichen) Zeitgeistigkeit.

Denke, ich habe das 1. Negativ (Verlangsamung!) Zu ihrem Manifest veröffentlicht . Mit etwas schlechter Krachmusik von Musikbekanntschaft. Wahre Geschichte

Hier gibt es zwei getrennte Probleme.

1) Wie wird KI dazu kommen, moralische Agenten zu imitieren?

KI wird keine moralische oder ethische Theorie benötigen, um dies zu erreichen. Neuronale Netze lernen durch Interaktion mit der Umgebung und können daher mit unscharfen Situationen ohne klare Definition umgehen.

So wie ein KI-System ein Gesicht erkennen kann, ohne mit einem bestimmten Satz von Regeln programmiert zu sein, um Mr. X oder Mrs. Y zu erkennen.

So wie ein KI-System lernen kann, ein Videospiel zu spielen, ohne dafür programmiert zu sein - https://www.youtube.com/watch?v=Q70ulPJW3Gk

Philosophische Moral- und Ethiktheorien spielen keine Rolle bei der Programmierung von Regeln, denen Maschinen folgen sollen. Obwohl das Maschinenverhalten in der Zukunft durch die Philosophie beeinflusst werden kann, so wie Sie beeinflusst werden können – durch das Lernen der Philosophie, nicht durch die Programmierung mit einem bestimmten Satz von Regeln.

2) Werden KI-Systeme jemals den Status von moralischen Agenten erhalten?

Hier ist Philosophie gefragt. Können intelligente Maschinen moralische Agenten sein oder nicht?

Ich persönlich denke, dass Mechanismen für immer nichts anderes als ausgeklügelte Werkzeuge sein werden – Erweiterung von Menschen.

Andere meinen, dass Mechanismen im Prinzip auf alles hinauslaufen können, was erforderlich ist, um als moralischer Akteur betrachtet zu werden.

Im ersteren Fall bleibt die moralische Verantwortung für das Maschinenverhalten bei den Menschen – insbesondere bei den Menschen, die sie entworfen haben, und den Menschen, die sie eingesetzt und ihren Einsatz geregelt haben.

Das Ende von 2 läuft darauf hinaus, Eltern für das Verhalten ihrer erwachsenen Kinder verantwortlich zu machen. Wenn eine KI schlauer ist als Sie, warum sollte sie Ihnen dann endlos gehorchen?