Individualität und Handlungsfähigkeit angesichts technologischer Singularität

Ich versuche, eine philosophische Frage auszuarbeiten, um das zentrale Thema meiner Geschichte zu bestimmen, also lassen Sie mich Ihnen einen Überblick darüber geben, womit ich zu arbeiten versuche ... hoffentlich können Sie mir einige Ideen geben.

Ich baue diese Welt, die eine Art Videospiel beinhaltet. Dieses Spiel möchte Informationen von jedem Lebewesen in der realen Welt "herunterladen" und sie dann töten. Die Idee ist, dass das gesamte Bewusstsein einer Person in diesen Server eingegeben werden kann, und Charaktere werden versuchen, sich dagegen zu wehren, aber auch herausgefordert, warum es überhaupt so eine schlechte Idee ist. Wenn sie Teil dieser technologischen Kraft sind, werden sie Unsterblichkeit erlangen und müssen sich keine Sorgen mehr um ihre physische Form machen, aber ich habe Probleme, die Probleme aufzuzeigen, die dies mit sich bringen könnte. Ich möchte schlussfolgern, dass diese Videospielversion einer Person letztendlich nicht wirklich sie ist, aber ich bin selbst nicht ganz von dieser Vorstellung überzeugt. Irgendwelche Gedanken?

Antworten (5)

Dies ist ein philosophisches Rätsel, das als Kontinuitätsproblem bekannt ist . Sie können einen Überblick über das Problem und einige seiner Auswirkungen in diesem Artikel lesen , aber konzentrieren wir uns darauf, wie Sie den Mann auf der Straße – nennen Sie ihn Fred – von dem Problem überzeugen können.

Sagen Sie aus Gründen der Argumentation, dass der Computer Recht hat. Es kann Freds Bewusstsein in jeder Hinsicht duplizieren und dann diese alte veraltete Fleischhardware "ausschalten". Allen äußeren Anzeichen nach ist Fred immer noch da, er ist nur im Computer. Computer Fred hat alle Persönlichkeitsmerkmale von Fred, seine Erinnerungen, sogar seine Gedanken im Moment der Vervielfältigung. Okay.

Aber Computerprogramme und Daten sind eben Daten, wir können sie replizieren. Wenn wir einen virtuellen Fred haben, warum nicht 50? Hier sehen wir ein Problem: Die 50 virtuellen Freds sehen nicht einen Fred, sie sehen jeweils ein "Selbst" und 49 andere Personen , die zufälligerweise alle perfekte Kopien von ihnen sind.

Stellen Sie sich jetzt vor, wir hätten Freds lebenden Körper nicht getötet, wir hätten ihn nur in den Computer dupliziert. Wir haben zwei Freds, aber genau wie im obigen Beispiel gibt es keinen zwingenden Grund für sie zu glauben, dass sie derselbe Fred sind. Wenn wir sie loslassen, wird der lebende Fred weiterleben und der virtuelle Fred wird virtuell bleiben, völlig unabhängig voneinander.

Wir sehen also, dass, egal ob Fred dupliziert wird oder nicht, die Zerstörung seines Körpers eine Instanz von Fred zerstört, die niemals ersetzt werden kann. Sie könnten einen anderen, virtuellen Fred haben. Sie könnten 50 oder 500.000 davon haben. Aber Sie werden nicht denselben Fred haben , mit dem Sie angefangen haben.

Aus philosophischer Sicht ist diese Frage das „Schiff des Theseus“-Rätsel; Wenn Sie im Laufe der Zeit alle Teile eines Schiffes ersetzen, ist es dasselbe Schiff?

Wenn wir dies einen Schritt weiter in Richtung (sagen wir) Teleportation gehen, stellt sich die Frage, ob Sie jemanden zerstören müssen, um seine Quantensignatur zu verschlüsseln, damit Sie sie an einem anderen Ort neu erstellen können, erstellen Sie eine Kopie oder ist es die echte Person?

Ich habe einmal eine philosophische Abhandlung darüber gelesen, in der es darum ging, ob die Person (wenn sie NICHT am Ursprungsort zerstört würde) gleichzeitig an zwei Orten sein würde; es ging darum hervorzuheben, dass eine Kopie eine Kopie bleibt, auch wenn das Original zerstört wird.

Was das digitale Hochladen betrifft, werde ich hier nicht auf die technischen Möglichkeiten eingehen, da meine Ansichten dazu sehr bekannt sind. Was ich jedoch erörtern werde, ist, ob beim Hochladen eine Kopie erstellt wird oder nicht.

Meine Ansicht ist, dass es so ist. Nehmen wir an, Sie könnten auf der Festplatte codiert werden; Das bedeutet, dass Ihre "Signatur" jetzt (genau genommen) eine Folge von Einsen und Nullen auf einem Speichergerät ist. Sie sind im Wesentlichen eine binär codierte positive Ganzzahl. Diese Zahl ist nicht mehr oder weniger bedeutend als jede andere „Zahl“, die auf derselben Festplatte gespeichert ist, außer dass man sich vorstellen könnte, dass sie VIEL größer ist als (sagen wir) ein Roman oder eine Tabelle oder ein Film usw.

Der Punkt war, dass es kopiert werden konnte. Leicht.

Wenn es kopiert werden kann, was macht Sie „einzigartig“? Was hält das Schurken-KI-Spiel davon ab, mehrere Kopien von Ihnen für seine eigenen Zwecke zu erstellen? Wenn das der Fall ist, war diese erste Kopie wirklich Sie? Sind die späteren?

Letztlich steht oder fällt diese Frage schon bei der allerersten „Vervielfältigung“, nämlich dem Hochladen in den Computer. Es wird nicht am Leben sein, und es wird nicht in der Lage sein, so zu „denken“, wie Sie es jetzt tun, weil seine Hardware bestenfalls eine Teilmenge des neuronalen Verarbeitungsmodells des menschlichen Gehirns ist, und schließlich (von Hardware-Zufallszahlengeneratoren abgesehen , möglicherweise; Thema für eine andere Frage) Computer sind von Natur aus deterministisch, was bedeutet, dass, wenn der freie Wille KEINE Lüge ist, Sie ihn sicherlich nicht als Computerdatei haben werden.

Die andere Sache, an die man sich hier erinnern sollte, ist natürlich, dass es einen Unterschied zwischen Ihnen, den Erinnerungen, und Ihnen, dem Programm, gibt. Wenn alles, was aufgezeichnet wird, Ihre Erinnerungen sind, dann sind Sie es definitiv nicht, denn wie Sie denken, ist für Sie als Person genauso wichtig wie das, was Sie denken. Wenn die Art und Weise , wie Sie denken, auch aufgezeichnet wird (Daten + Programm), besteht eine größere Chance, dass sich jemand freiwillig für diesen Prozess meldet und sich auf dem Computer perfekt „lebendig und gesund“ wiederfindet.

Aber; diese zunehmend hypothetische Person wäre nicht ich.

Kommentare sind nicht für längere Diskussionen gedacht; Diese Konversation wurde in den Chat verschoben .

Wie die anderen Antworten zeigen, ist dies eine altbekannte Frage der Science-Fiction und Philosophie. Wenn ich deine Gedanken auf einen Computer kopiere, wer bist du wirklich "du"? Wenn ich nach und nach jedes Teil in deinem Körper ersetze, bist du immer noch „du“? Kann „du“ zwei Körper gleichzeitig bewohnen? Ist Bewusstsein ein einzelnes, eigenständiges Phänomen, ein Konglomerat verschiedener Phänomene oder nur eine Illusion ansonsten rein mechanischer Prozesse? Ist Bewusstsein überhaupt wertvoll?

Was nichts über die technischen Probleme aussagt. Wie können wir sicherstellen, dass die Struktur und der Zustand des Gehirns perfekt kopiert wurden? Wie simulieren wir die Auswirkungen des restlichen Körpers auf die geistige Funktion einer Person (z. B. Hormone und Darmbakterien)? Wie halten wir all diese Hardware am Laufen? Gibt es Patchdays, an denen alle digitalen Menschen während des Wartungsfensters praktisch nicht vorhanden sind?

Es ist sehr leicht, sich in extremen Hypothesen zu verzetteln, die John Doe nicht viel sagen, wenn er versucht, seinen Kaffee vor der Arbeit zu bekommen. Wenn es Ihr Ziel ist, eine Motivation für die Charaktere in der Geschichte zu finden, sich nicht dem digitalen Kollektiv anzuschließen, gibt es viel einfacher verständliche Argumente, die Sie vorbringen können, die für die durchschnittliche Person tatsächlich von Bedeutung sind.

  1. Was ist mit der Seele?Ein großer Teil der heutigen Bevölkerung glaubt an irgendeine Form von spirituellem Dualismus; dass die Seele vom Körper getrennt ist. Wenn Sie also jemanden klonen, können Sie dann auch seine Seele klonen? Wenn du jemanden hochlädst, kannst du seine Seele hochladen? Viele dieser Leute würden nein sagen. Dass die Seele den Menschen wirklich zu dem macht, was er ist, und dass sie nicht durch normale physische Prozesse erschaffen, dupliziert oder zerstört werden kann. Ein Klon oder eine digitale Kopie wäre also seelenlos und alles, was dazugehört (Unfähigkeit, den Himmel zu erreichen, Entfernung von Gott(en) usw.). Für diese Leute ist es einfach nur getötet zu werden, um Platz für einen digitalen Upload zu schaffen. Außerdem könnten sie die Idee, Intelligenz zu erschaffen, die nicht von einer göttlichen Seele geleitet oder an sie gebunden ist, wirklich nicht mögen (z. B. könnte ein seelenloser Schauspieler rein böse oder ein Affront gegen das Göttliche sein).

  2. Ich mag meinen Körper. Menschen verbringen im Allgemeinen ihr ganzes Leben in ihrem eigenen Körper und leben in unserer physischen Welt. Für viele Menschen wäre es ein ernsthafter Gedankensprung, ihre Identität von ihrer physischen Existenz zu trennen. Und Sie sprechen nicht einmal davon, sie einfach in einen neuen Körper zu stecken. Sie sprechen davon, sie zu zwingen, in einer völlig neuen Welt (der des Spiels) zu leben. Es gibt mittlerweile viele Menschen, die ihre Heimatstadt nicht verlassen wollen, geschweige denn ihre gesamte körperliche Existenz.

  3. Das ist zerbrechlich. Worüber Sie sprechen, ist nicht Unsterblichkeit. Es ist Amsterblichkeit (Sie haben die Möglichkeit, auf unbestimmte Zeit zu leben, können aber immer noch durch alles andere als Alter / Krankheit getötet werden). Sicherlich gibt es keinen Grund, warum Sie sich die Grippe einfangen würden, wenn Sie rein digital wären. Aber was ist, wenn Sie jemand einfach von der Festplatte löscht? Was ist mit Stromausfällen, die Datenkorruption verursachen? Was ist mit Bit-Rot und Übertragungsfehlern? Anstatt zu einem physischen Arzt zu gehen, um nach Krankheiten zu suchen, müssen diese digitalen Menschen zu einem digitalen Arzt gehen, um nach Computerviren zu suchen? Welche Zusicherungen haben diese Leute, dass sie nicht von Malware übernommen werden und ihr Gesicht in eine Pepsi-Werbung oder ähnliches verwandeln? Was ist, wenn es einfache Fehler im Spiel gibt?

  4. Ich habe nicht danach gefragt. Es hört sich so an, als ob die Intelligenz, die dieses Spiel antreibt, um zu versuchen, alle zu digitalisieren und dann zu ermorden, nicht wirklich Stimmen abgibt und nach Freiwilligen fragt. Viele Menschen mögen es nicht, in große, lebensverändernde Situationen gezwungen zu werden. Aber selbst wenn alle im Spiel bereitwillig mitmachen, sind viele Leute einfache Widersacher oder misstrauisch. Sie werden es vermeiden wollen, beizutreten, nur weil es viele andere Leute tun oder weil sie dem Spiel oder den Leuten dahinter nicht vertrauen. Je besser das Geschäft, desto weniger vertrauen sie ihm möglicherweise.

  5. Ich werde keine Kontrolle haben. Wem gehören die Daten, die in dieses Spiel hochgeladen werden? Wird es Gesetze geben, um das digitale Bewusstsein zu schützen? Werden sie überhaupt als Menschen angesehen? Welche Möglichkeiten hat ein solcher digitaler Mensch, wenn er seine Existenz in eine andere digitale Welt verlagern möchte? Wird jemand im Meatspace rechtlich zur Verantwortung gezogen, wenn er versehentlich ein Stück Hardware kaputt macht, in dem diese Leute gespeichert sind? Der Beitritt zu dieser digitalen Welt klingt fast so, als würde man die Kontrolle über sein eigenes Leben aufgeben. Es gibt jetzt viele Leute, die gegen Dinge wie Führerschein und Steuern als Verletzung der persönlichen Freiheiten wüten. Wie würden sie Ihrer Meinung nach reagieren, wenn ihnen gesagt/gefordert würde, sich im Wesentlichen von jedem ihnen bekannten Schutz (sogar ihrer eigenen körperlichen Stärke) zu entwaffnen?

Die grundlegenden Herausforderungen müssen Sie erfinden. Sie müssen definieren, wie die verwendete Technologie funktioniert. Sie müssen definieren, was es kann und was nicht.

Ihr System bringt Sie von einer Implementierung eines Selbst (der matschigen Fleischtüte namens H. sapiens) zu einer neuen Implementierung eines Selbst (Silizium? Woraus auch immer Sie Ihren Computer machen). Wenn Ihre neue Implementierung perfekt ist , gibt es keinen Grund, nicht umzuziehen. Was wir jedoch in den letzten 10.000 oder vielleicht 100.000 Jahren herausgefunden haben, ist, dass „perfekt“ ein wirklich sehr, sehr schwieriges Wort ist, wenn es um das menschliche „Selbst“ geht.

Wenn Ihr computerisiertes Selbst beispielsweise ausschließlich durch digitale Informationen definiert ist, dann können sie von jedem Individuum, das über diese digitalen Informationen verfügt, perfekt simuliert werden. Wenn sie dich schneller simulieren können, als du selbst laufen kannst, können sie alles vorhersagen, was du tun wirst, bevor du es tust. Historisch gesehen nervt das Menschen ... wir mögen es nicht, wenn Leute das tun. Wir mögen unseren Sinn für Entscheidungsfreiheit. Jedes System ohne sie ist in unseren Augen unvollkommen.

Andererseits können Sie sie durch hauptsächlich digitale Informationen definieren, haben aber Kernelemente, die physisch sind. Zum Beispiel haben Sie vielleicht einen Siliziumchip, der im Herzen jedes computerisierten Menschen auf analoge Weise funktioniert. Dies vermeidet die Simulationsprobleme, da wir noch keinen Weg kennen, um komplexe analoge Systeme (wie das N-Körper-Problem aus der Astrophysik) perfekt zu simulieren. Aber wirft eine ganze Reihe anderer Probleme auf. Wie wohl fühlen Sie sich zum Beispiel mit Ihrer analogen Siliziumseele? Bist du bereit, deine Fleischbeutelseele zu beenden? Wie „perfekt“ die Übertragung ist. Was passiert auch, wenn jemand das Silizium in Ihrem Kern erfolgreich angreift? Ein Fehler in der Sicherheit und sie könnten buchstäblich Ihr Herz in ihren Händen haben.

Jede Geschichte, die die Idee hat, Bewusstsein zu übertragen, ist in der Lage, Dutzende von Kompromissen zu untersuchen, basierend auf den bestimmten Implementierungsdetails, die sie wählen. Sie wählen die Details aus, und das bestimmt die Kompromisse. Oder Sie können zuerst die Philosophie untersuchen, die Kompromisse identifizieren und dann Ihre Details aufschreiben.

Oder Sie können nach Belieben mischen und anpassen. Aber Sie werden nicht in der Lage sein, das eine ohne das andere festzunageln.

Die interessante Frage hier ist, die moralische Frage und die Frage der „Scheuheit“ zu trennen.

Stellen Sie sich eine fortgeschrittene transhumane Kultur vor, in der Menschen hochladen, in Körper herunterladen usw. können (aber sie vermeiden es sogar, zwei Kopien derselben Person gleichzeitig zu haben, nur um den Kontrast zu vereinfachen.) Menschen sterben und stellen die ganze Zeit aus Backups wieder her. Sogar kleine Kinder. Es ist keine große Sache, wenn Ihr Kleinkind aus dem Fenster eines Wolkenkratzers fällt; er wird einfach in seinem Zimmer in einen neuen Körper zurückkehren, so glücklich und gesund wie immer. Lange vor Erreichen des Erwachsenenalters halten die Menschen dies für normal. Schließlich umfasst Ihre Erfahrung niemals die letzten Momente von irgendjemandem von Ihnen, der gestorben ist, sondern alle Male, in denen Sie dem Tod entkommen sind, einschließlich aller Male, in denen Sie kurz vor dem Ende mit ein paar Momenten fehlender Erinnerung aufgewacht sind. Das wirkliche Leben ist wie ein Videospiel mit unendlich vielen Leben.

Gibt es also etwas Unmoralisches an:

  • Diese Lebensweise?
  • Die Menschen des 21. Jahrhunderts mit dem richtigen Bewusstsein zu erleuchten, um diese Lebensweise wirklich zu akzeptieren, und sie dann hochzuladen und ihre ursprünglichen Körper zu löschen?
  • Ihre Gedanken bearbeiten, um sie blitzschnell aufzuklären, und dann hochladen und löschen?
  • Zustimmung von Menschen des 21. Jahrhunderts einholen, obwohl sie wissen, dass sie es nicht wirklich verstehen, selbst wenn sie denken, dass sie es tun, und dann hochladen und löschen?
  • Hochladen und löschen und es ihnen anschließend erklären, in dem Wissen, dass Sie Recht haben und sie es schließlich verstehen werden, sobald sie ihre primitiven Überzeugungen überwunden haben.

Ihre Geschichte ist sogar noch weiter unten auf dieser Linie. Die Spiel-KI weiß aufgrund der jahrtausendelangen Erfahrung von Billionen von Individuen nicht, dass sie etwas Gutes tut. Und es hat keinen Grund zu erwarten, dass die Leute, die es hochlädt, auf seine Denkweise kommen; es ist im Grunde nur die Hoffnung , dass sie es tun werden. Und es scheint sich nicht einmal um ihre Zustimmung zu kümmern.

Also, selbst wenn Sie akzeptieren, dass das Hochladen eher Unsterblichkeit als Tod ist und alles andere, und dass Ihre Intuition ansonsten nur Zimperlichkeit und keine moralischen oder philosophischen Einwände sind – Sie haben immer noch einen guten Grund, die Spiel-KI in Frage zu stellen, und zwar beurteilen Sie seine Handlungen; Sie können leicht davonkommen, es als den Bösewicht in einer Geschichte zu malen.