Ist das Trennen eines Roboters von der Stromversorgung dasselbe wie das Töten einer Person? Wie die Kommentatoren sagten, funktioniert dies nicht ganz, da Roboter wieder angeschlossen werden können. Ersetzen wir also Roboter durch philosophische Zombies , sie verhalten sich wie Menschen, außer dass sie kein Bewusstsein haben. Insbesondere wenn sie einmal getötet wurden, kommen sie nicht zurück. Ist es dasselbe, sie zu töten? In beiden Fällen deaktivieren Sie diese dauerhaft. Wenn es immer noch nicht dasselbe ist, warum ist es ethisch anders, etwas mit Bewusstsein zu schädigen, als etwas ohne Bewusstsein zu schaden?
Das hängt davon ab, was das Problem beim Töten von Menschen ist:
Und ob die Moral innerhalb des Gedankenexperiments zu beurteilen ist:
Das Teleporter-Paradoxon kann uns beim Verständnis helfen. Wenn wir Kontinuität mit der neuen Kopie haben können, haben wir vielleicht nichts dagegen, die alte zu verdampfen. Irreversibilität ist ein großes Problem. Wir haben das gleiche Problem mit dem Verlust der biologischen Vielfalt und dem Artensterben.
Wenn wir darüber nachdenken, die Funktion eines menschlichen Gehirnneurons durch ein Neuron mit Computerkomponenten zu ersetzen, müssen wir akzeptieren, dass ein Roboter im Prinzip ein Mensch sein kann. Wenn wir die Funktion dieser Komponenten digital simulieren, müssen wir zugeben, dass ein Programm eine Person sein kann. Turing schlug diesen berühmten Test vor, um sich von der Sorge um unsichtbare „Essenzen“ abzuwenden und sich auf das zu konzentrieren, was Intelligenz tut . Das Bestehen des Turing-Tests ist bestenfalls ein zweideutiger Beweis, und es gibt viele Versionen, aber der Punkt liegt darin, sich auf die Funktionalität von Intelligenz und Persönlichkeit zu konzentrieren.
Peter Singer argumentiert für Tierrechte auf der Grundlage von Fähigkeiten und argumentiert, dass der „imaginäre Kreis“, den wir um Menschen ziehen, nicht kohärent oder konsistent ist, wenn wir beispielsweise das Wohlergehen eines hirntoten Menschen über einen Delfin stellen, von dem wir wissen, dass er den Spiegeltest besteht und eine komplexe Sprache haben, und können wir denken, dass wir auf eine Weise leiden, die der hirntote Mensch nicht kann.
Bostrom schlägt „ Mindcrime “ vor, dass wir moralische Überlegungen auf komplexe Programme und Maschinen ausdehnen, parallel zu unserer Sorge um Tiere, ihre Leidensfähigkeit und ihre Fähigkeit, moralische Pflichten zu übernehmen – und vor allem darüber nachdenken, wie sehr ihre Erfahrungen potenziell verursachen ihr Leiden ist für uns schwer zu verstehen oder zu sehen.
Ist ein philosophischer Zombie auf komplexe und einzigartige Weise durch Interaktion „gewachsen“? Oder ist es wie ein Boltzmann-Gehirn oder von einem Teleporter „heruntergebeamt“ und so möglicherweise durch perfekte Wiedergabetreue ersetzbar? Wir sollten vorsichtiger sein mit dem, was wir rückgängig machen können, als mit dem, was wir nicht können. Im weiteren Sinne hängt es von Ihrer Einstellung zu Was ist der Anreiz, moralisch zu sein?
Mauro ALLEGRANZA
Jishin Noben
neugierigdannii
Mauro ALLEGRANZA
4HonorNDFame
4HonorNDFame
Konifold
Fragen Sie nach Monika
4HonorNDFame
Armand
Guy Inchbald
Fernseher1