Haben Daten einen freien Willen?

Angenommen, es existiert ein freier Wille (mehr zu diesem faszinierenden metaphysischen Thema finden Sie unter Determinismus), kann man sagen, dass Data tatsächlich einen freien Willen hat? Seine Aktionen werden von der Programmierung gesteuert, daher werden seine Aktionen von seiner Programmierung bestimmt , Data kann jedoch Entscheidungen treffen. Hat Lt Cmdr Data also tatsächlich einen freien Willen oder sind alle seine Handlungen vorbestimmt?

Das klingt, als ob es auf Philosophy.SE gehört
So sehr es mich auch schmerzt, auf Puffingon Host zu verlinken: Free Will is an Illusion
+1 Dies ist eine interessante Frage, die von Data (und seinen Mitmenschen) während der Serie mehrmals kommentiert wurde und in diesem Zusammenhang beantwortet werden kann.
Haben wir es?
@Envite: Wie ich in der Frage klar feststelle, basiert dies auf der Annahme, dass wir tatsächlich einen freien Willen haben, denn wenn wir dies nicht hätten , verstehe ich nicht, wie die Frage tatsächlich existieren könnte (Menschen haben keinen freien Willen, aber Ein Android hat einen freien Willen? Klingt für mich nicht realistisch)
@N.Soong Angesichts der Tatsache, dass einige Philosophen Dinge auf eine Weise verdreht haben, die nicht der Realität entspricht, wäre ich nicht überrascht, wenn sie einen Weg finden würden. (Ja, ich lege nicht viel Wert auf das Thema)

Antworten (3)

Dies wird in TNG: Measure of a Man tangential angesprochen. Dabei wird Data vor Gericht gestellt, um festzustellen, ob er empfindungsfähig und damit ein freies Wesen oder nicht empfindungsfähig und Eigentum ist. Dies wird durch einen Informatiker verursacht, der Data befiehlt, sich wegen eines riskanten Gehirnduplizierungsverfahrens beim Hauptquartier zu melden. Data droht mit Rücktritt, anstatt sich dem Verfahren zu unterziehen, was den Vorwurf bringt, er sei Eigentum. Während des Prozesses demonstriert Picard zwei Merkmale des empfindungsfähigen Lebens, dass er sowohl intelligent als auch selbstbewusst ist. Der andere Faktor (Bewusstseinsmessung) kann nicht "bewiesen" werden, also wird Data die Freiheit gegeben, ihn zu erforschen.

Während der Endszenen weigert sich Data offiziell, sich dem Verfahren zu unterziehen. Während argumentiert werden könnte, dass dies lediglich eine Selbstschutzprogrammierung ist, wird dies durch die vielen Male widerlegt, dass Data sich freiwillig in Gefahr begibt, um Schiffskameraden zu helfen/zu retten/Unfälle zu verhindern. Ich glaube, dass diese Handlungen der Weigerung, sich einem menschlichen Experiment zu unterwerfen, das ihn gefährdet, während er gleichzeitig die Fähigkeit hat, sich zum Wohle anderer in Gefahr zu begeben, zeigt, dass er die Fähigkeit (freier Wille) hat, seine eigenen Handlungen zu wählen.

Data kann auch seine eigene Programmierung nach Belieben ändern oder andere für ihn tun lassen. Wie er Roga Danar von Angosia erzählte; "Meine Programmierung kann verändert werden, deine nicht?"
@ Morgan - Guter Punkt, ich hatte diesen Aspekt nicht berücksichtigt.
@Morgam , obwohl er immer noch so programmiert werden kann, dass er annimmt, dass er "perfekt" ist und andere Programmierversuche ablehnt
Die "Programmierung" von @Morgan Chakotay wurde ebenfalls geändert
@Izkata - Ich erinnere mich, dass ich diese Folge gesehen habe. Das war ein sehr cleverer und interessanter Plot Twist.
@Morgan - Heute Morgen habe ich eine skriptgesteuerte TCP-Serveranwendung geschrieben, die in der Lage ist, die steuernden Skripte entsprechend den Änderungen der Bedingungen zu ändern. Habe ich etwas mit freiem Willen erschaffen? (Ich hoffe nicht. Ich habe seitdem etwa ein Dutzend Versionen gelöscht. :D )
Woher wissen wir, dass Data nicht sowohl ein Save Yourself -Skript als auch ein Save Crew Members- Skript erhalten hat? Der zweite könnte den ersten in Notfallsituationen leicht außer Kraft setzen.
@mg30rg Ich fühle mich schlecht für alle Benutzer von C64- und ZX-Systemen! All dieser schlaue selbstmodifizierende Code, getötet...

Daten verhalten sich im Allgemeinen perfekt nach dem Asimov-Gesetz. Na ja, fast .

Data verletzt oder tötet Menschen nicht freiwillig (außer wenn er von außen kontrolliert oder mit einer anderen Persönlichkeit geladen wird, aber das zählt kaum), noch lügt er jemals (außer wenn er von Picard dazu befohlen wird, um das Leben der gesamten Schiffsbesatzung zu retten) . Er wird jede Regel und jeden Befehl buchstabengetreu befolgen und alles tun (einschließlich des Risikos seiner eigenen Zerstörung oder sogar der Selbstopferung am Ende), um humanoides Leben zu retten.
Data verfügt sogar über ein explizites Failover-Programm, das ihn daran hindert, Böses zu tun, und ihn dazu zwingt, Zivilisten gegen eine wahrgenommene externe Bedrohung zu verteidigen (aber wiederum ohne tödliche Gewalt anzuwenden), wie im Film Insurrection gezeigt .

Trotzdem greift er am Ende von The Most Toys zu einem Varon-T-Disruptor, der nicht nur eine tödliche Waffe ist, sondern ausdrücklich für einen „besonders qualvollen Tod“ konzipiert ist, und erschießt Fajo. Zugegeben, Fajo ist wahrscheinlich das größte Einzelarschloch im Star-Trek-Universum, das wir während der gesamten Serie zu sehen bekommen. Aber dennoch, als Data auf ihn schießt, gibt es keine klare und gegenwärtige Gefahr und keine dringende Notwendigkeit, ihn zu verletzen oder zu töten. Fajo ist ein unbewaffneter, verängstigter Gimp.
Dieser Mord war aus Sicht der meisten Menschen wahrscheinlich gerechtfertigt und sogar wohlverdient, wenn man bedenkt, was Fajo in der Vergangenheit getan hat und was er möglicherweise in Zukunft tun wird, aber er ist mit dem üblichen Verhalten von Data nicht vereinbar.

Bei der Materialisierung erklärt Data dem schockierten O'Brien (der bemerkt, dass die Waffe abgefeuert wurde), dass der Disruptor aufgrund der Interaktion mit dem Transporterstrahl eine Fehlfunktion gehabt haben muss, was eine offensichtliche Lüge ist.

Dies beweist, dass Data sehr wohl in der Lage ist, eine Entscheidung zu treffen und gegen das zu handeln, was wir als seine übliche Programmierung kennen, indem er nicht weniger als kaltblütigen Mord begeht und vertuscht. Freier Wille.

Es (auf Fajo zu schießen) verstößt nicht unbedingt gegen das erste asimovianische Gesetz. Daten – ob mit oder ohne Willensfreiheit – sind ein komplexes System, das in der Lage ist, die Möglichkeiten zu messen. Sie sehen, Fajo ist – wie Sie farbenfroh dargestellt haben – das größte Arschloch im ST-Universum. Vielleicht hat Data gemessen – statistisch gesehen – und erkannt, dass die Leute ihn nicht davon abhalten können/wollen, unzählige andere Menschen zu verletzen. Vielleicht wäre es die logische Entscheidung gewesen, ihn zu erschießen, wenn er so viele Menschen wie möglich beschützen wollte. Vielleicht war es die Entscheidung eines Computers, zufälligen Schaden zu reduzieren.
Man könnte argumentieren, dass die meisten heroischen Charaktere in Star Trek einer Annäherung an das asimovianische Gesetz folgen. Dies liegt daran, dass Asimovs Gesetze ein quantifizierter ethischer Kodex sind, der speziell darauf ausgelegt ist, die Art von ethischem Verhalten anzunähern, die die meisten modernen Menschen haben und billigen. (Das war Asimovs große Neuerung: Ein Grund für Roboter, nicht zu rebellieren, damit er erforschen konnte, was passiert, wenn sie es nicht tun.) Ich vermute, dass Datas allgemeines Verhalten im Einklang mit der populären Ethik eher damit zu tun hat, dass er ein " Held"-Charakter in einem Gene-Rodenberry-Universum, als dass er ein Roboter ist.

Ihre Frage ist eigentlich zweigeteilt: 1. Wenn jemand/etwas einen freien Willen hat, welches Verhalten wird er im Gegensatz zu jemandem/etwas zeigen, das keinen freien Willen hat. 2. Zeigt Data dieses Verhalten, das einen freien Willen impliziert?

Derzeit wird heftig diskutiert, ob Menschen einen freien Willen haben, und daher wird heftig diskutiert, ob irgendein Verhalten, das wir zeigen, eines ist, das auf einen freien Willen hinweist. Frage 1 lässt sich also nicht so einfach beantworten. Nehmen wir also an, dass Menschen einen freien Willen haben. Jetzt können wir das Verhalten von Data mit unserem vergleichen?

  • Seine Entscheidungen sind vorhersehbar. Das können unsere auch .

  • Manchmal wird er tun, was ihm gesagt wird (z. B. nach Lebenszeichen suchen), und manchmal wird er sich weigern (z. B. sein Gehirn zerlegen lassen). Wir auch.

  • Diese Entscheidung basiert auf Gründen (nicht zu verwechseln mit Ursachen ). Bei uns ist es genauso.

  • Es gibt einige Dinge, für die er sich nie entscheiden wird (z. B. wenn er sich nicht mit ihm anlegen lässt, wird er sich nie entscheiden, Gordie zu verletzen) - aufgrund seiner Programmierung. Wir auch nicht - aufgrund unserer Ausbildung.

  • Auch aufgrund seiner Programmierung hat er eine Reihe von Dingen, die er zu vermeiden versucht (z. B. den Tod von Kameraden oder sich selbst) und eine Reihe von Dingen, die er zu erreichen versucht (z. B. Mensch werden). Wir sind genau gleich.

Also würde ich vorschlagen (unter Vermeidung der ersten Frage), dass Data einen freien Willen hat, wenn Sie denken, dass wir einen freien Willen haben, und dass er keinen hat, wenn Sie denken, dass wir keinen haben. Jetzt liegt es an Ihnen: Tun wir oder tun wir nicht? Philosophie-Stack-Austausch ist nur einen Klick entfernt!

Persönlich bin ich ein harter Determinist, aber ich weiß, dass das sicherlich nicht jedermanns Sache ist, also ging ich davon aus, dass Menschen tatsächlich einen freien Willen haben, denn unter diesen Umständen ist es viel interessanter!
@N.Soong Es gibt eine Denkschule namens "Kompatibilismus", die vorschlägt, dass Determinismus und freier Wille sich nicht gegenseitig ausschließen. Es hängt alles von Ihrer Definition von "freiem Willen" ab. Ich finde es ziemlich überzeugend.
Ich bin mir des Kompatibilismus oder „weichen Determinismus“, wie er auch genannt wird, bewusst, und ich befinde mich derzeit in einem langsamen Übergangsprozess, um zu sehen, ob ich ihm zustimmen kann, aber im Moment bin ich immer noch ein starker harter Determinist
@N.Soong Mir ist der Name "Soft-Determinismus" nicht bekannt, aber beim Kompatibilismus geht es nicht darum, den Determinismus schwach oder weich zu machen. Das ist das Schöne daran. Aus diesem Grund kann sogar eine vollständig, vollständig und hart deterministische Maschine wie Data einen freien Willen haben.
Ich weiß – es wird „weicher Determinismus“ genannt, weil es nicht ganz dasselbe wie Determinismus ist – wenn man sich viele Arbeiten von Creel ansieht, nennt er es regelmäßig so. Ich persönlich bevorzuge auch den Begriff Kompatibilismus, auch wenn ich ihn (im Moment!)
@N.Soong Gefunden. Weicher Determinismus scheint ein abwertender Begriff zu sein, der meistens von Autoren verwendet wird, die ich nicht lese ;-) Früher glaubte ich auch an Determinismus, aber als ich anfing, Hegel zu lesen, änderten sich die Dinge... Jedenfalls ist das keine Philosophie.se!
Ich persönlich glaube an Entschlossenheit und freien Willen. Ich glaube, dass jeder Zustand des Universums auf einem 3D-Schnappschuss dargestellt werden kann und dass die Existenz selbst auf einem 4D-Schnappschuss dargestellt werden kann. (Wo die 4. Achse die Zeit ist.) Ich glaube auch, dass basierend auf 2-3 zufälligen 3D-Schnappschüssen alle anderen berechnet werden können. (Was pure Entschlossenheit ist.) (wird fortgesetzt...)
(...Fortsetzung) Ich glaube auch, dass aufgrund der Heisenbergschen Unnötig-Relation diese Momentaufnahmen nicht von jemandem innerhalb des Systems dargestellt/erzeugt werden können, daher können die zukünftigen Aktionen des Systems nicht vorhergesagt werden (aufgrund des Mangels an Informationen). Wenn Ihre Handlungen nur auf der Grundlage von Informationen vorhergesagt werden können, die niemals verfügbar sein können, riecht das Ganze nach freiem Willen, nicht wahr? (Fortsetzung folgt2...)
(...Fortsetzung2) Auf dieser Ebene der Prädestination/Bestimmung ist der freie Wille also nicht nur eine Illusion, er ist die perfekte Fata Morgana. Was Sie nun eigentlich fragen, wenn Sie fragen, ob Data einen freien Willen hat, ist, ob seine Handlungen so unvorhersehbar sind wie alle anderen Wesen, von denen angenommen wird, dass sie einen freien Willen haben.