Kann mich jemand auf Autorenressourcen zu KI oder Roboterethik verweisen? [abgeschlossen]

Ich bin dabei, einen Science-Fiction-Roman zu schreiben, der eine große Menge und Vielfalt synthetischer Lebensformen beinhalten wird. Ich wurde stark von den Werken von Asimov beeinflusst, und obwohl ich die Gesetze, die ich für die Steuerung des künstlichen Lebens verwende, möglicherweise nicht explizit darlege, möchte ich eine solide Grundlage dafür haben, wie meine Roboter – oder wie sie auch genannt werden – dazu in der Lage sind ethische Entscheidungen zu treffen. Aus der Sicht der Handlung möchte ich auch einige realistische Möglichkeiten, wie diese Regeln gehackt oder anderweitig untergraben werden können.

Ich weiß, dass ich diese Frage auf einer reinen Codierungsseite stellen könnte, aber ich möchte nicht mit Zeilen von Rohcode überschwemmt werden. Gleichzeitig möchte ich keine philosophischen Wälzer durchlesen, die keine Grundlage in moderner Computerprogrammierung haben. Ich suche nach etwas dazwischen ... Also dachte ich, dass es einige andere Science-Fiction-orientierte Leute in der Umgebung von Writers.SE geben muss, die Erfahrung mit dieser Art von Forschung haben. Pseudo-Code wäre in Ordnung, aber ich möchte mich wirklich nicht mit KI-Skripten hinsetzen und versuchen, sie weit in die Zukunft zu projizieren. Für diejenigen, die vielleicht denken, dass ich versuche, Forschung zu vermeiden, würde ich nur sagen, dass ich es liebe, Forschung zu betreiben, aber ich könnte etwas Hilfe gebrauchen, wo ich diese Forschung im Moment konzentrieren könnte.

Um die Frage noch einmal zu formulieren: Gibt es hier Autoren, die gute Mittelweg-Ressourcen empfehlen können, die sich mit den Konzepten der Philosophie und Programmierung künstlicher Intelligenz und/oder systematischer Ethik befassen?

Tut mir leid, wenn dies eine seltsame Frage ist, und vielen Dank an alle, die sich die Zeit nehmen, darüber nachzudenken.

Es gibt Wikipedia-Einträge zu diesem Thema mit einer langen Liste von Referenzen. Eine offensichtliche Google-Suche weist auf andere hin. Könnten Sie erläutern, was dort fehlt, damit wir Ihre Frage besser beantworten können? Beispiele: en.wikipedia.org/wiki/Ethics_of_artificial_intelligence - en.wikipedia.org/wiki/Roboethics - cs.bath.ac.uk/~jjb/web/ai.html - links999.net/robotics/artificial_intelligence/index.html
Ich weiß die Vorschläge zu schätzen und werde bei scifi.SE erneut posten ... Um genauer zu sein, ich versuche, reine Vermutungen zu vermeiden. Es ist einfacher, Meinungen zu finden, als Beispiele zu finden. Wenn ich mich also für das eine oder andere entscheiden müsste, würde ich eher technische Antworten bevorzugen. Eine perfekte Antwort könnte jemand sein, der Asimovs 3 Gesetze nimmt und sie als Algorithmen aufschreibt. Oder irgendeine Reihe von Algorithmen, die als Grundlage für ethisches künstliches Leben dienen könnten ... Welche Ressourcen ich auch immer entscheide, ich habe offensichtlich noch viel mehr zu lesen.
Hallo Steve, ich fürchte, Forschungsfragen sind hier nicht Thema, wie in dieser FAQ und [ähnlichen] ( meta.writers.stackexchange.com/questions/294/… ) . Entschuldigen Sie die Entmutigung, aber ich hoffe, Sie finden die verlinkten Diskussionen klar und vernünftig. Und viel Glück beim Finden der gesuchten Ressourcen – klingt cool!
Übrigens, Sie werden wahrscheinlich viele gute Ressourcen finden, indem Sie den Begriff googeln, an dem Sie interessiert sind, plus "Popular Science" - das wird Ihnen viele einführende Artikel geben, einschließlich Wikipedia - Artikeln , die sowohl informativ als auch hilfreich, um weiterführende Ressourcen zu finden.
Schauen Sie sich diesen Artikel für eine Einführung an , dann können Sie sehen, worauf er verweist, um tiefer zu graben.

Antworten (1)

Es gibt ein einfaches Problem bei der Beschreibung von Ethik als Algorithmen; Es gibt zu viele verschiedene Meinungen darüber, was richtig und falsch ist! (Oder ob es überhaupt „richtig“ und „falsch“ gibt.)

Asimov zum Beispiel ließ seine Roboter einem sehr einfachen Ethikkodex folgen (kein Wortspiel beabsichtigt!). Infolgedessen können Asimovs Roboter keine schwierigen Entscheidungen treffen. Ein Roboter wäre zum Beispiel nicht in der Lage, eine Situation zu bewältigen, in der er einen Terroristen töten muss, um das Leben eines anderen zu retten.

Werden Ihre synthetischen Lebensformen alle den gleichen ethischen Richtlinien folgen, oder werden unterschiedliche „Spezies“ (oder Modelle ?) unterschiedliche Vorstellungen davon haben, was richtig und was falsch ist?

Sobald Sie sich auf eine Reihe ethischer Regeln festgelegt haben, müssen Sie meiner Meinung nach mit der eigentlichen Codierung nicht zu technisch werden. Auch heutzutage erfordert das Programmieren weniger technische Details und ermöglicht es einem, einfach zu schreiben, was er tun möchte. (Wie jemand es ausdrückte: „Heutzutage befasst man sich mit dem Was und lässt den Code mit dem Wie fertig werden .)

Kurz gesagt, ein einfacher Algorithmus sollte ausreichen, solange er keine Löcher hinterlässt.

Akzeptiert für die Mühe ... Ich würde diese Dinge gerne weiter diskutieren, aber wenn sie hier als Off-Topic angesehen werden, nehme ich es wohl nicht persönlich. Danke für die Bewertung. Was meine Pläne betrifft, so beabsichtige ich, absichtlich widersprüchliche Algorithmen in Spannung arbeiten zu lassen, aber das ist ein anderes Thema für einen anderen Tag.
Interessant; Ich habe nicht nur keinerlei Erinnerung daran, dies geschrieben zu haben, sondern ich bin hier in vielen Punkten anderer Meinung.
Nur eine Anmerkung: Asimovs Arbeit wurde genau gemacht, um zu zeigen, wie lächerlich die Idee, die Ethik eines Roboters durch nur ein einfaches Regelwerk zu kontrollieren, niemals funktionieren würde, da sich buchstäblich alle seine Geschichten darum drehten, dass Roboter die eine oder andere Regel brechen.