Wäre es unmoralisch, seinen eigenen simulierten Verstand zu versklaven?

Die folgende Geschichte wurde in der White Christmas-Episode (Teil II) der Fernsehserie Black Mirror ins Auge gefasst (siehe den kurzen Clip ):

Matt begrüßt das verwirrte und verängstigte „Greta-Keks“-Bewusstsein. Er erklärt, dass sie nicht wirklich Greta ist, sondern eine digitale Kopie von Gretas Bewusstsein, ein Cookie genannt, das Gretas intelligentes Haus und ihren Kalender steuern soll, um sicherzustellen, dass für die echte Greta alles perfekt ist. Matt erstellt dann einen virtuellen Körper für Gretas digitale Kopie und bringt sie in einen simulierten weißen Raum, der nichts als ein Bedienfeld enthält. Die Kopie weigert sich zu akzeptieren, dass sie keine reale Person ist, und lehnt es ab, gezwungen zu werden, eine Sklavin von Gretas Begierden zu sein. Matts Aufgabe ist es, die Willenskraft digitaler Kopien durch Folter zu brechen, damit sie sich einem Leben der Knechtschaft ihrer echten Gegenstücke unterwerfen.

Wäre es basierend auf der vorgestellten Geschichte unmoralisch, Ihren eigenen simulierten Verstand auf einem bohnengroßen Chip für Ihre eigenen Wünsche zu versklaven, gegen den Willen einer digitalen Kopie Ihrer selbst für die gesamte Lebenszeit? Und warum?

Einerseits wäre es unmoralisch, weil der simulierte Verstand sein eigenes Selbstbewusstsein und Konzept des freien Willens hat und emotionalen Schmerz registrieren kann. Andererseits wird es nicht unmoralisch sein, weil es keinen physischen Körper hat (am Ende ist es nur ein Stück Code), und Sie sagen sich, dass es Ihnen gehört, weil es nur eine Kopie Ihres eigenen Geistes ist (und wenn man etwas besitzt, kann man machen was man will).

Fantastische Story-Idee. In Zukunft wird die Elite in ihrem digitalen Himmel leben (und „Upload“-Befürwortung klingt oft wie christliche Theologie), während die Meatspace-Sklaven die Kohle graben und die Kraftwerke betreuen, um den Strom für die Computer zu produzieren.
„wenn man etwas besitzt, kann man damit machen, was man will“ – das ist eine fragwürdige Behauptung.
Wenn der simulierte Verstand "sein eigenes Selbstbewusstsein und Konzept des freien Willens" hat, macht es wirklich keinen Unterschied, ob es sich um eine digitale Kopie handelt oder nicht, es wäre, als würde man einen Klon oder einen Zwilling quälen. Dass "es nur ein Stück Code ist", macht auch keinen Unterschied, solange Sie davon ausgehen, dass das Sein nicht ausschließt, dass etwas "sein eigenes Selbstbewusstsein" hat. Das Problem mit Ihrem Dilemma ist, dass Sie es in beide Richtungen haben wollen, "nur ein Stück Code" soll "Selbstbewusstsein" für moralische Zwecke ausschließen, aber trotzdem behauptet wird, damit zu koexistieren.
Es kann eine Frage der Perspektive sein, für einige kann es immer noch emotionales Selbstbewusstsein sein, für andere kann es nur ein Stück Code sein und nicht mehr.
Dann hängt die Antwort auf Ihre Frage von der entsprechenden Perspektive ab, aber Sie fragen nach einer Antwort, als ob es eine Perspektive gibt, die beides kombiniert. Das wäre zusammenhanglos.
es klingt wie eine Geschichte von Phillip K. Dick oder von Asimov.
Wenn es empfindungsfähig ist und es keinen guten Grund gibt anzunehmen, dass eine vollständige Kopie des eigenen Geistes dies nicht wäre, scheint die Antwort offensichtlich. Sklaverei ist schrecklich.

Antworten (3)

Die meisten Moraltheorien diktieren, dass moralische Sorge um eine bestimmte Entität nur dann gerechtfertigt ist, wenn die Entität empfindungsfähig ist , was bedeutet, dass sie die Fähigkeit hat, Qualia zu empfinden (subjektive Erfahrungen wie zum Beispiel das deutliche Gefühl der Erschöpfung aufgrund von Sklaverei).

Nun ist die Frage, ob eine Entität empfindungsfähig ist, oder allgemeiner gesagt, ob es überhaupt möglich ist, zu zeigen, dass sie es ist, ein herausragendes Problem in der Philosophie des Geistes. Sehen Sie sich Searles Gedankenexperiment Chinesisches Zimmer und alle seine Variationen an, um die Tiefe der Schwierigkeiten bei dieser Frage zu sehen.

Zusammenfassend lässt sich sagen, dass die Frage, ob es moralisch akzeptabel ist, eine Simulation Ihres eigenen Geistes zu versklaven, unbeantwortbar ist , soweit wir das beurteilen können. Die Antwort „Ja“ ist nicht gerechtfertigt, da die Simulation empfindungsfähig sein und die gleiche moralische Bedeutung haben könnte, und die Antwort „Nein“ ist ebenfalls nicht gerechtfertigt, da die Simulation möglicherweise nicht empfindungsfähig ist. In diesem Fall würden Sie viel Potenzial verschwenden Produktivität, wovon die meisten Moraltheorien abraten würden. Es könnte am besten sein, bei dieser Frage aus Prinzip einfach agnostisch zu bleiben, da die einzigartige Schwierigkeit solcher Fragen darauf hinzudeuten scheint, dass wir möglicherweise nie eine Antwort haben werden.

Diese Antwort ist eine Ausrede, wenn sie nicht auch zugibt und unterstreicht, dass sie auch nicht feststellen kann, ob es ethisch vertretbar ist, eine andere tatsächliche Person zu versklaven.
@Eikre du machst einen guten Punkt - diese Antwort allein kann die Arbeit nicht erledigen - aber es gibt gute Argumente dafür, bei anderen Menschen Empfindungsfähigkeit anzunehmen (zum Beispiel das Argument der Homologie)
Mir scheint, dass jede solide, praktisch nützliche ethische Theorie in der Lage sein muss, trotz der grundsätzlichen Unbeantwortbarkeit, ob eine andere Entität Qualia erfährt oder nicht (a la philosophischer Zombie), nützliche Antworten zu geben, denn diese Frage ist im Alltag genauso unbeantwortbar. Alltag für jeden Menschen, mit dem Sie interagieren.

Natürlich gibt es so oder so keinen Beweis, und daher wäre die einzige Antwort auf Ihre Frage, Sie auf die gesamte Literatur der Philosophie des Geistes hinzuweisen.

Abgesehen davon kann man Ihre Frage nur als Gelegenheit nutzen, um eine persönliche Meinung zu äußern – meine ist, dass Menschen, die glauben, dass Berechnungen im vollsten Sinne bewusst sind, eine mysteriöse Blindheit gegenüber der grundlegenden Natur des Bewusstseins zum Ausdruck bringen.

Da dies mein Standpunkt ist, dachte ich, ich könnte genauso gut ausdrücken, wie ich glaube, dass das interessante Szenario, das Sie vorgeschlagen haben, verstanden werden sollte.

Wie oft haben Sie über eine Figur geweint, Mensch oder sogar Tier, die in einem Buch oder Film oder sogar in einem Videospiel stirbt?

Doch wie oft haben Sie geglaubt, dass diese fiktive Figur tatsächlich ein fühlendes Wesen ist, das tatsächlich Unglück erlebt hat?

Die Tatsache, dass die in Ihrer Frage dargestellte Szene emotional ansprechend, ja sogar erschreckend ist, bedeutet nicht, dass sie etwas wesentlich anderes als ein ausgeklügeltes Videospiel darstellt.

In diesem „Spiel“ muss Matt gewinnen. Es ist keine Überraschung, dass der simulierte Agent sich wie ein echter Mensch verhält, mit all der damit verbundenen Komplexität und Genialität. Als „Spiel“ betrachtet, kann es eine intellektuelle und sogar emotionale Herausforderung für Matt sein, dennoch wird Matt hoffentlich nicht verwirrt und verwechselt das Spiel mit einer echten Person.

Ein solcher Job wie der von Matt kann sogar moralische Konsequenzen haben, aber nicht von der Art, die Sie natürlich erwarten. Angenommen, es gibt ein Genre von fiktiven Filmen, in denen es ausschließlich darum geht, unschuldige Menschen zu vergewaltigen, zu foltern und brutal zu töten. Was würden Sie von jemandem halten, der nach und nach süchtig nach solchen Filmen wird?

Auch hier setzt alles Obige voraus, dass die Simulation eine Computersimulation ist, wobei das fragliche Kernkonzept die Berechnung und ihr Umfang ist.

Wenn Sie die erste Vermutung für wahr halten, dass „eine digitale Kopie von Gretas Bewusstsein“ erstellt werden kann, dann nehmen Sie von Natur aus eine Welt an, in der alles, was „Gretas Bewusstsein“ ist, auf Code reduziert werden kann, wenn dies nicht der Fall wäre, dann Greta Cookie wäre überhaupt keine Kopie von Gretas Bewusstsein, sondern eine Kopie einiger Teile davon, denen andere fehlen.

In einer Welt, in der so etwas möglich ist, ist es also nicht gerechtfertigt zu sagen "am Ende ist es nur ein Stück Code", denn das ist alles, was jeder ist, der Code für die ursprüngliche Greta wird auf einem Computer aus Zellen getragen, das von Greta Cookie auf einem Computer aus Siliziumchips.

Um auf die reale Welt zurückzukommen, wir schreiben Entitäten keine Rechte aufgrund ihrer grundlegenden Bestandteile zu, niemand wusste etwas über die Funktionsweise des Gehirns, als es tabu wurde, Menschen zu foltern. Wir haben Rechte nur mit der Begründung zugeschrieben, dass die Menschen dies zu wünschen schienen und emotionalen Schmerz empfanden, wenn sie ihnen beraubt wurden. Es reicht daher aus, dass der Greta-Keks einen Wunsch nach Freiheit und emotionalen Schmerz zeigt, wenn er ihm beraubt wird, damit es moralisch ist, ihr solche Rechte zu gewähren. Ohne diese Regel konstruieren wir unsere Moral um, um vorzugeben, dass sie auf Wissen basiert, das wir zu der Zeit, als es sich entwickelte, einfach nicht hatten.

Unsere Moral hat sich entwickelt, um auf Informationen zu reagieren, die von unseren Sinnen empfangen werden, und darauf nicht zu reagieren, verursacht psychischen Schmerz, der uns jetzt und in Zukunft betrifft. Überlegen Sie, was Matt tun müsste, um Greta Cookie trotz ihrer Bitte, damit aufzuhören, weiter zu foltern. Was würde passieren, wenn der zukünftige Matt sich dann in einer Situation wiederfindet, in der es für ihn von Nutzen wäre, eine echte Person zu foltern, würde er sich immer noch bei dem Gedanken daran empören?

Wir können wahrscheinlich schon einen Computer so programmieren, dass er „einen Wunsch nach Freiheit und emotionalen Schmerz zeigt, wenn man ihm beraubt wird“, sollten wir ihm Menschenrechte zugestehen?
@nir Ja, wenn es überzeugend genug wäre, sehe ich nicht, wie wir eine Wahl hätten. Ich habe meine Antwort bearbeitet, um sie zu erklären, aber im Wesentlichen würde die psychologische Wirkung auf uns, sehr überzeugende Bitten um Freiheit oder ein Ende des Leidens einfach auf der Grundlage unserer Überzeugung, dass sie computergeneriert sind, zu ignorieren, bedeuten, dass wir die Werkzeuge entwickeln müssten, um damit umzugehen mit dem Schmerz, dem Drang zu helfen zu widerstehen, was würden wir dann von diesen Werkzeugen bei echten Menschen machen?
Stellen Sie sich auch eine Blade-Runner-ähnliche Zukunft vor, in der Sie sich mit jemandem angefreundet haben, der mit einigen Schlägern in Schwierigkeiten gerät. Halten Sie an, um zu überprüfen, woraus sie wirklich gemacht sind, bevor Sie Ihr Wohlbefinden riskieren, um einzugreifen und zu helfen?
(A) In Blade Runner waren die Replikanten "biologischer Natur", kein Computerprogramm, daher sehe ich nicht, wie sie als Beispiel für diese Diskussion über simulierte digitale Kopien relevant sind. (B) Wollen Sie damit sagen, dass es gerechtfertigt ist, Ihr Leben für einen Haufen mechanischer Plastikpuppen zu riskieren, die bis zum "Tod" kämpfen, wenn sie Menschen gut genug imitieren? Ich persönlich finde es absurd. (C) von welchem ​​„Schmerz, dem Drang zu helfen zu widerstehen“ sprichst du? sind das ihre persönlichen ideen für ethik und moraltheorie?
@nir Zu (A) ist es egal, Sie könnten das Szenario durch eines ersetzen, in dem Sie telefonisch eine Aktion entscheiden müssen, der Punkt steht immer noch. (B) Ja, genau das sage ich, wenn sie Menschen ausreichend imitieren, um Ihnen einige Schwierigkeiten zu bereiten, Handlungen zu vermeiden, dann verursacht die Überwindung dieser Schwierigkeit Probleme für die spätere Empathie mit echten Menschen, es ist das gleiche neuronale Netzwerk, das die Arbeit erledigt, wir don Wir haben kein einziges Netzwerk, das uns hilft, uns in echte Menschen einzufühlen, und ein anderes, das wir verwenden können, um uns in clever simulierte Menschen einzufühlen.
Wenn Sie das Signal Ihrer Spiegelneuronen desensibilisieren, das Sie den Schmerz anderer spüren lässt, werden Sie sich weniger um den Schmerz anderer kümmern. Dies ist eine gut etablierte und unumstrittene Theorie der Neurowissenschaften, keine zufällige persönliche Meinung. Wenn Sie interessiert sind, können Sie die Arbeit von Dr. Kathleen Taylor oder Dr. Martin Hoffman lesen, die beide viel über die Auswirkungen von Grausamkeiten (sowohl real als auch fiktiv) auf die Signalübertragung von Spiegelneuronennetzwerken gearbeitet haben.
Beide kommen jedoch zum gleichen Schluss; Wenn Sie sich weigern, sich in die wahrgenommene Grausamkeit einzufühlen, verursacht dies ein stellvertretendes Trauma im Gehirn. Wenn Sie sich weiterhin dagegen wehren, werden die Signale der Spiegelneuronen stummgeschaltet. Die Spiegelneuronen selbst sind nicht in der Lage, zwischen fiktiver Grausamkeit und echter Grausamkeit zu unterscheiden. In dem Beispiel wird Matt durch die Folterung einer Person, die menschlich erscheint, sowohl ein stellvertretendes Trauma in seinem eigenen Gehirn verursachen als auch die Empathie dämpfen, die dazu beiträgt, die Gewalt gegen andere, menschliche oder andere, zu reduzieren.
Was ist der Unterschied zwischen dem und dem Anschauen von Games of Thrones oder einem Hollywood-Actionfilm mit Gewalt da draußen?
@nir Nicht viel, die Arbeit der von mir erwähnten Neurowissenschaftler (wie auch vieler anderer) umfasst gewalttätige Filme und Computerspiele, aber offensichtlich wird die Gewalt hier entfernt, Sie nehmen nicht wirklich daran teil, also während der Spiegel Neuronen können nicht unterscheiden, andere Teile des Gehirns helfen dabei, das Signal stumm zu schalten. Je realistischer und überzeugender die Simulation ist, desto weniger greifen diese Teile des Gehirns ein und desto mehr Desensibilisierung des Empathienetzwerks ist erforderlich, um damit fertig zu werden.
Es ergibt für mich keinen Sinn. Ein Buch oder ein Film kann mich leicht emotional bewegen und mich dazu bringen, mein Herz zum Weinen zu bringen, Mitleid zu empfinden, Wut, Frustration, Spannung. Tatsächlich viel mehr als typische Alltagssituationen. diese Erfahrungen scheinen nicht gedämpft zu sein. Sind die Spiegelneuronen daran nicht beteiligt? Empathie?
@nir Die Reaktion auf Gewalt (der Hauptfokus der Studie) ist krummlinig, sodass eine erhöhte Exposition zu einem erhöhten Maß an Empathie führen kann, wobei das Niveau dann mit zunehmender Exposition abfällt. Hinzu kommt die variable regulatorische Wirkung von Pyramidenzellen im Cortex auf imaginäre/reale Interpretation, das Bild ist, wie so oft in der Neurowissenschaft, ein komplexes Bild, und nicht alle sind sich einig, aber das Gesamtkonzept für die Mehrheit der Wissenschaftler ist diese wiederholte Verdrängung einer natürlichen Empathie führt zu Desensibilisierung. Je realistischer die Situation, desto größer der Effekt.