Die folgende Geschichte wurde in der White Christmas-Episode (Teil II) der Fernsehserie Black Mirror ins Auge gefasst (siehe den kurzen Clip ):
Matt begrüßt das verwirrte und verängstigte „Greta-Keks“-Bewusstsein. Er erklärt, dass sie nicht wirklich Greta ist, sondern eine digitale Kopie von Gretas Bewusstsein, ein Cookie genannt, das Gretas intelligentes Haus und ihren Kalender steuern soll, um sicherzustellen, dass für die echte Greta alles perfekt ist. Matt erstellt dann einen virtuellen Körper für Gretas digitale Kopie und bringt sie in einen simulierten weißen Raum, der nichts als ein Bedienfeld enthält. Die Kopie weigert sich zu akzeptieren, dass sie keine reale Person ist, und lehnt es ab, gezwungen zu werden, eine Sklavin von Gretas Begierden zu sein. Matts Aufgabe ist es, die Willenskraft digitaler Kopien durch Folter zu brechen, damit sie sich einem Leben der Knechtschaft ihrer echten Gegenstücke unterwerfen.
Wäre es basierend auf der vorgestellten Geschichte unmoralisch, Ihren eigenen simulierten Verstand auf einem bohnengroßen Chip für Ihre eigenen Wünsche zu versklaven, gegen den Willen einer digitalen Kopie Ihrer selbst für die gesamte Lebenszeit? Und warum?
Einerseits wäre es unmoralisch, weil der simulierte Verstand sein eigenes Selbstbewusstsein und Konzept des freien Willens hat und emotionalen Schmerz registrieren kann. Andererseits wird es nicht unmoralisch sein, weil es keinen physischen Körper hat (am Ende ist es nur ein Stück Code), und Sie sagen sich, dass es Ihnen gehört, weil es nur eine Kopie Ihres eigenen Geistes ist (und wenn man etwas besitzt, kann man machen was man will).
Die meisten Moraltheorien diktieren, dass moralische Sorge um eine bestimmte Entität nur dann gerechtfertigt ist, wenn die Entität empfindungsfähig ist , was bedeutet, dass sie die Fähigkeit hat, Qualia zu empfinden (subjektive Erfahrungen wie zum Beispiel das deutliche Gefühl der Erschöpfung aufgrund von Sklaverei).
Nun ist die Frage, ob eine Entität empfindungsfähig ist, oder allgemeiner gesagt, ob es überhaupt möglich ist, zu zeigen, dass sie es ist, ein herausragendes Problem in der Philosophie des Geistes. Sehen Sie sich Searles Gedankenexperiment Chinesisches Zimmer und alle seine Variationen an, um die Tiefe der Schwierigkeiten bei dieser Frage zu sehen.
Zusammenfassend lässt sich sagen, dass die Frage, ob es moralisch akzeptabel ist, eine Simulation Ihres eigenen Geistes zu versklaven, unbeantwortbar ist , soweit wir das beurteilen können. Die Antwort „Ja“ ist nicht gerechtfertigt, da die Simulation empfindungsfähig sein und die gleiche moralische Bedeutung haben könnte, und die Antwort „Nein“ ist ebenfalls nicht gerechtfertigt, da die Simulation möglicherweise nicht empfindungsfähig ist. In diesem Fall würden Sie viel Potenzial verschwenden Produktivität, wovon die meisten Moraltheorien abraten würden. Es könnte am besten sein, bei dieser Frage aus Prinzip einfach agnostisch zu bleiben, da die einzigartige Schwierigkeit solcher Fragen darauf hinzudeuten scheint, dass wir möglicherweise nie eine Antwort haben werden.
Natürlich gibt es so oder so keinen Beweis, und daher wäre die einzige Antwort auf Ihre Frage, Sie auf die gesamte Literatur der Philosophie des Geistes hinzuweisen.
Abgesehen davon kann man Ihre Frage nur als Gelegenheit nutzen, um eine persönliche Meinung zu äußern – meine ist, dass Menschen, die glauben, dass Berechnungen im vollsten Sinne bewusst sind, eine mysteriöse Blindheit gegenüber der grundlegenden Natur des Bewusstseins zum Ausdruck bringen.
Da dies mein Standpunkt ist, dachte ich, ich könnte genauso gut ausdrücken, wie ich glaube, dass das interessante Szenario, das Sie vorgeschlagen haben, verstanden werden sollte.
Wie oft haben Sie über eine Figur geweint, Mensch oder sogar Tier, die in einem Buch oder Film oder sogar in einem Videospiel stirbt?
Doch wie oft haben Sie geglaubt, dass diese fiktive Figur tatsächlich ein fühlendes Wesen ist, das tatsächlich Unglück erlebt hat?
Die Tatsache, dass die in Ihrer Frage dargestellte Szene emotional ansprechend, ja sogar erschreckend ist, bedeutet nicht, dass sie etwas wesentlich anderes als ein ausgeklügeltes Videospiel darstellt.
In diesem „Spiel“ muss Matt gewinnen. Es ist keine Überraschung, dass der simulierte Agent sich wie ein echter Mensch verhält, mit all der damit verbundenen Komplexität und Genialität. Als „Spiel“ betrachtet, kann es eine intellektuelle und sogar emotionale Herausforderung für Matt sein, dennoch wird Matt hoffentlich nicht verwirrt und verwechselt das Spiel mit einer echten Person.
Ein solcher Job wie der von Matt kann sogar moralische Konsequenzen haben, aber nicht von der Art, die Sie natürlich erwarten. Angenommen, es gibt ein Genre von fiktiven Filmen, in denen es ausschließlich darum geht, unschuldige Menschen zu vergewaltigen, zu foltern und brutal zu töten. Was würden Sie von jemandem halten, der nach und nach süchtig nach solchen Filmen wird?
Auch hier setzt alles Obige voraus, dass die Simulation eine Computersimulation ist, wobei das fragliche Kernkonzept die Berechnung und ihr Umfang ist.
Wenn Sie die erste Vermutung für wahr halten, dass „eine digitale Kopie von Gretas Bewusstsein“ erstellt werden kann, dann nehmen Sie von Natur aus eine Welt an, in der alles, was „Gretas Bewusstsein“ ist, auf Code reduziert werden kann, wenn dies nicht der Fall wäre, dann Greta Cookie wäre überhaupt keine Kopie von Gretas Bewusstsein, sondern eine Kopie einiger Teile davon, denen andere fehlen.
In einer Welt, in der so etwas möglich ist, ist es also nicht gerechtfertigt zu sagen "am Ende ist es nur ein Stück Code", denn das ist alles, was jeder ist, der Code für die ursprüngliche Greta wird auf einem Computer aus Zellen getragen, das von Greta Cookie auf einem Computer aus Siliziumchips.
Um auf die reale Welt zurückzukommen, wir schreiben Entitäten keine Rechte aufgrund ihrer grundlegenden Bestandteile zu, niemand wusste etwas über die Funktionsweise des Gehirns, als es tabu wurde, Menschen zu foltern. Wir haben Rechte nur mit der Begründung zugeschrieben, dass die Menschen dies zu wünschen schienen und emotionalen Schmerz empfanden, wenn sie ihnen beraubt wurden. Es reicht daher aus, dass der Greta-Keks einen Wunsch nach Freiheit und emotionalen Schmerz zeigt, wenn er ihm beraubt wird, damit es moralisch ist, ihr solche Rechte zu gewähren. Ohne diese Regel konstruieren wir unsere Moral um, um vorzugeben, dass sie auf Wissen basiert, das wir zu der Zeit, als es sich entwickelte, einfach nicht hatten.
Unsere Moral hat sich entwickelt, um auf Informationen zu reagieren, die von unseren Sinnen empfangen werden, und darauf nicht zu reagieren, verursacht psychischen Schmerz, der uns jetzt und in Zukunft betrifft. Überlegen Sie, was Matt tun müsste, um Greta Cookie trotz ihrer Bitte, damit aufzuhören, weiter zu foltern. Was würde passieren, wenn der zukünftige Matt sich dann in einer Situation wiederfindet, in der es für ihn von Nutzen wäre, eine echte Person zu foltern, würde er sich immer noch bei dem Gedanken daran empören?
Benutzer4894
David
Konifold
kenorb
Konifold
Mosibur Ullah
Fragen Sie nach Monika