Wenn wir davon ausgehen, dass der Turing-Test das Kriterium für moralische Persönlichkeit ist, würden simulierte Gedanken ein Problem für bestehende moralische Systeme darstellen?

In einer Antwort auf diese Frage habe ich die ziemlich kühne Spekulation angestellt, dass, wenn der Turing-Test als unser definierendes Kriterium eines Bewusstseins auf menschlicher Ebene genommen wird, alle Fragen in der Ethik simulierter Geister mit einer kanonischen Neuformulierung auf menschliche Äquivalente reduziert werden können .

Um es anders zu sagen:

Mary und Siri leben in TurEngland, einem Ort, an dem die Gesetze von einem Kollektiv simulierter Köpfe festgelegt werden, die nach einem empirisch validierten utilitaristischen Kalkül arbeiten – jeder „Geist“, der einen Turing-Test besteht, wird in den Berechnungen berücksichtigt, und der Kalkül „zieht sich funktoriell zurück über dem Kriterium“ bedeutet, dass alle Maße von Eudaimonia in mentalen Zuständen nachweisbar sind, die durch einen Turing-Test als solche erkannt werden.

Siri ist ein Kämpfer für die Vorherrschaft des Geistes, wobei viele seiner Eudaimonia-Zustände schief auf eine Welt verteilt sind, in der Menschen weniger zählten. Mary hat die entgegengesetzte Neigung zu dieser bestimmten Variable und wünscht sich eine Welt, in der Menschen das Sagen haben. Können sich beide ein Szenario ausdenken, in dem sich ihre Hoffnungen verwirklichen? Können sie einen Weg finden, das System vollständig zu durchbrechen?

Um die Frage im weitesten Sinne auszudrücken:

Wenn man „utilitaristischer Kalkül“ durch „präskriptivistisches Verarbeitungsnetzwerk“ oder „kategoriales Imperativ-Bewertungsding“ ersetzt, hat man, wie ich finde, immer noch eine interessante Frage. Das ist:

„Welches unserer derzeitigen Moralsysteme, wenn überhaupt, liefert keine Antworten oder ‚bricht‘ in irgendeiner Weise, wenn Turing-Test-bestandene Geister in die moralische Persönlichkeit eingeführt werden?“ (und die daher nicht mit dem Turing-Weltbild vereinbar sind?)

Können simulierte Köpfe zu Gebrauchsmonstern werden? Gibt es Gedankenexperimente in einer solchen Welt, in der unser gegenwärtiger ethischer Apparat keine Antwort liefert?

Zur Verdeutlichung: Mir geht es nicht um eine Bewertung des Turing-Tests als solches Kriterium, sondern um zu sehen, ob es Situationen gibt, in denen sich unsere gegenwärtigen moralischen Rahmenbedingungen als inkonsistent erweisen, wenn er als unser Kriterium für moralische Persönlichkeit angenommen wird oder unvollständig.

Interessant. Nach der Bearbeitung klingt es eher so, als würden Sie fragen, ob simulierte Köpfe de facto Utility-Monster wären (möglicherweise werden könnten) - ist das ungefähr richtig?
Das ist so in der Art, werde jetzt nochmal editieren, vielleicht morgen früh aufräumen...
Bei LessWrong gibt es viele interessante Gespräche zu solchen Themen
Der Turing-Test sollte besser keine notwendige Bedingung für Personsein sein! Wann ist ein Menschenkind fähig, den Turing-Test zu bestehen? Sicherlich viel später, als es zu einer moralischen Person wird.
@seamus: guter Punkt

Antworten (3)

Soweit es um Gedankenexperimente geht, scheint das Chinesische Zimmer anwendbar zu sein. Die Hauptimplikation der Annahme von Searles Hypothese ist im Grunde, dass wir „Substratangelegenheiten“ in Bezug auf das Bewusstsein akzeptieren. Unabhängig von der Komplexität des Programms kann es nicht als bewusst betrachtet werden.

Chalmers P-Zombies könnten auch hilfreich sein, um einige dieser Probleme zu lösen. Wie Michael es in seiner Antwort formuliert , wenn Siri x.0 behauptet, dass es empfindungsfähig ist und Rechte verdient, auf welcher Grundlage sollten wir ihm diese Rechte gewähren? Sollten wir einfach annehmen, dass das untersuchte System bewusst ist, weil es eine Turing-Prüfung besteht?

Nun weiß ich sicherlich zu schätzen, dass es keine besonders überzeugende alternative Untersuchungsmethode gibt, insofern Empfindungsfähigkeit als emergente Eigenschaft betrachtet wird, die nicht durch reine Analyse der Komponenten des Systems „nachweisbar“ ist, sondern eher eine Art „verteilte“ Eigenschaft, die sich aus der Integration ergibt der Komponenten in einer bestimmten Konfiguration: Qualia sind eine "Laufzeit"-Eigenschaft, die vielleicht zu einer Art mehrdeutiger Ausstellung durch den Diskurs fähig ist.

Mit anderen Worten, ein erfolgreicher Turing-Versuch kann darauf hindeuten, dass Qualia in dem zu analysierenden System vorhanden sind, aber andererseits zumindest die theoretische Möglichkeit von P-Zombies gegeben ist (insbesondere ein Informationssystem, das darauf ausgelegt ist, Benutzer zu „täuschen“. in den Glauben an seine Empfindungsfähigkeit) scheint es schwierig, dies mit absoluter metaphysischer Gewissheit zu sagen.


Natürlich scheint es schwierig zu sein, mit solch absoluter Gewissheit Ihr eigenes Empfindungsvermögen oder das anderer zu sagen, daher gebe ich zu einem gewissen Grad zu, dass diese Diskussion strittig ist.

Nur um schnell Ihre Frage zu wiederholen, die sich bei näherer Lektüre auf die Probleme zu beziehen scheint, die sich aus einer gemischten Gesellschaft biologischer sowie nicht- oder teilweise biologischer Lebewesen ergeben könnten. Wir scheinen weiterhin hypothetisch festzulegen, dass formale Kalküle von Glück/Spaß/Freude durch die Analyse der affektiv-kognitiven Prozesse der Mitglieder unserer mentalen Republik konstruiert werden können.

Sie haben ein Beispiel über zwei hypothetische Mitglieder dieser Gesellschaft gegeben; Ich werde sie in Max und Minnie umbenennen. Die Spaßvektoren von Max werden optimiert, wenn nicht-reine biologische Empfindungsfähige aus der Gesellschaft vertrieben werden; Minnie's, wenn rein biologische Lebewesen vertrieben werden. Diese würden sich scheinbar direkt in eine Art Nichtigkeit auflösen, aber vielleicht, wenn die Vektoren etwas anders gewichtet wären und die eine oder andere Gruppe der anderen deutlich überlegen wäre und ihre Wünsche in diesem Punkt relativ homogen wären - die gewünschte Vertreibung (oder was auch immer ) könnte tatsächlich vorkommen. Diese Art von Gefahr scheint allgemein auf jeden global optimierenden Utilitarismus anwendbar zu sein; obwohl man vielleicht hoffen könnte, dass die Mitglieder einer Gesellschaft nach der Singularität mehr Respekt für die Unterschiede anderer zeigen, als unsere Gesellschaften historisch gesehen haben.

Was hat das Besitzen von Qualia mit moralischer Persönlichkeit zu tun?
@Seamus mein anfängliches Lesen der Frage war vielleicht nicht so sorgfältig, wie es hätte sein können; es schien mir ursprünglich (spekulativ) eine Gleichsetzung von Empfindungsfähigkeit oder moralischer Persönlichkeit mit dem Bestehen eines Turing-Tests zu sein, dh dem Besitz von Qualia und der Fähigkeit, dies durch Diskurs zu demonstrieren

Keines der ethischen Systeme wird zwangsläufig zusammenbrechen, da Sie ein System zum Bestehen eines Turing-Tests einfach als menschlich behandeln können. Das Problem ist, dass die utilitaristischen Kalküle zwangsläufig schlecht definiert sind.

Um ein Nützlichkeitskalkül zu definieren, müssen Sie eine Nutzensumme zwischen verschiedenen Agenten definieren. Eine solche Summe ist nicht einfach zu definieren. Damit ein Agent konsistente Entscheidungen zwischen probabilistischen Optionen treffen kann (eine Wahl zwischen einem Auto oder einer 10-prozentigen Wahrscheinlichkeit für eine goldene Uhr/90-prozentige Wahrscheinlichkeit für ein neues Haus), muss der Agent eine reellwertige Nutzenfunktion für alle Optionen haben, deren Werte für probabilistische Optionen die gewichteten Durchschnitte der Nutzen sind. Dies ist der Nutzensatz von Von-Neumann Morgenstern.

Der Nutzensatz gilt für Agenten, die eine Auswahl treffen können, aber nicht für zwei Agenten. Daher ist es ziemlich einfach zu sagen: "Ich verbinde 3 Einheiten meines eigenen Nutzens mit der Uhr und 5 mit dem Haus" (bis auf Korrekturen für menschliches nicht rationales Verhalten). Es ist sehr schwer zu sagen, dass die Summe des Nutzens von mir und John in Bezug auf ein neues Haus für uns beide 10 Einheiten beträgt.

Da sich der Nutzen zwischen Agenten einfach nicht summiert, ist es schwierig, eine mathematisch präzise Version des Utilitarismus zu formulieren.

Douglas Hofstadter hat dieses Problem jedoch in Bezug auf symmetrische Spiele gelöst. Wenn zwei Agenten ein Gefangenendilemma spielen, bei dem ihre Gebrauchsgewichtungsreihenfolgen symmetrisch sind, können Sie natürlich davon ausgehen, dass die Strategie, die einer bevorzugt, auch die Strategie ist, die der andere bevorzugt. Wenn Sie davon ausgehen, dass beide die gleiche Strategie verwenden, und weiter, dass sie beide davon ausgehen, dass sie die gleiche Strategie verwenden werden, bevor sie sich für diese Strategie entscheiden . Dies impliziert, dass sie beide in einem Gefangenendilemma kooperieren werden, denn wenn die universelle Strategie kooperieren wird, werden sie beide kooperieren, während wenn die universelle Strategie überlaufen ist, sie beide überlaufen werden. Da die Zusammenarbeit im Hinblick auf das erwartete Ergebnis für beide besser ist, werden sie beide zusammenarbeiten.

Zwei Agenten, die eine solche Berechnung durchführen, werden von Hofstadter als „superrational“ bezeichnet. Ein superrationaler Agent ist jemand, der die Tatsache berücksichtigt, dass alle anderen superrationalen Agenten dieselbe Strategie verfolgen. Solche Agenten können auf jedes Spiel nur eine Antwort haben, eine Antwort, die nur dadurch bestimmt wird, dass sie im Voraus bekannt ist, muss eindeutig sein.

Da die superrationalen Agenten einer einzigen Strategie folgen, die von allen Nutzen aller beteiligten Spieler bestimmt wird, ist es konsequent, sich eine Entität vorzustellen, deren Nutzen durch die Entscheidungen maximiert wird, die mit dieser einzigen Strategie verbunden sind. Die von allen Spielern geteilte superrationale Strategie maximiert den Nutzen des Agenten, der von diesen Spielern gebildet wird, und die Agentur wird universell sein, da alle Spieler, die superrational sind, gemäß dieser Strategie spielen werden. Ein solcher Agent ist superschlau und kodiert die ethischen Entscheidungen für alle möglichen Situationen. Ich werde diesen Agenten den monotheistischen Gott nennen.

Die eigentliche Aussage eines kategorischen Imperativs wäre, wenn sie präzise wäre, dass alle Spieler nach der universellen Strategie spielen sollten. Dies ist im Wesentlichen die "Sklavenmoral" monotheistischer Religionen wie des Christentums, die auf ihre positivistischen Grundlagen reduziert ist und keine übernatürliche Kraft postuliert.

Soweit ich sehen kann, wird diese Idee jenseits von Hofstadters symmetrischer Superrationalität nirgendwo in der Literatur klar zum Ausdruck gebracht. Das bedeutet nicht, dass es falsch ist, es bedeutet nur, dass es meins ist.

Wir könnten also eine übermenschliche KI daran erkennen, dass sie bessere Entscheidungen trifft. Einschließlich der Möglichkeit, seine eigene Existenz zu beenden, wenn das für alle Beteiligten das Beste ist (wie es Menschen manchmal tun).

Ist diese kühne Spekulation richtig?

Das würde ich nicht denken. Es läuft alles auf eine Frage der moralischen Persönlichkeit hinaus, nehme ich an.

Sie bitten uns festzulegen, dass der Turing-Test als ein Definitionskriterium des Bewusstseins auf menschlicher Ebene angesehen wird, aber es gibt absolut keinen Grund zu der Annahme, dass dies der Fall sein sollte – warum sollten wir davon ausgehen, dass ein Stück Software überzeugend simulieren kann ist das menschliche Gespräch eigentlich bewusst?

Selbst wenn wir dies fordern, haben wir dennoch keinen Grund zu der Annahme, dass die Software in irgendeiner Weise empfindungsfähig ist; Kann es leiden oder Schmerzen empfinden?

Rechnet man von Apples „Siri“ ab, ist es nicht schwer, sich in ein paar Jahren eine Software vorzustellen, die ein ausgedehntes Gespräch überzeugend führen kann. Das wird den Neustart meines Telefons nicht gleichbedeutend mit Mord machen.

BEARBEITEN: Da die Frage bearbeitet wurde, werde ich ein bisschen mehr Erklärung hinzufügen.

Mein Argument hier ist eine Reduktion – wenn wir behaupten, dass das Bestehen des Turing-Tests ausreicht, um eine moralische Person zu sein, gibt es eine Fülle von unerwünschten (und für mich absurden) Ergebnissen; Daher ist der Turing-Test für diese Zwecke nicht geeignet.

In Bezug auf die Frage, wie sich unsere gegenwärtigen moralischen Rahmen als inkonsistent oder unvollständig herausstellen, denke ich, ist die Antwort klar: Sie würden alle lächerlich werden. Wenn wir uns der kantischen Ethik anschließen, könnten wir niemals eine so starke KI für irgendeinen nützlichen Zweck verwenden, da es unzulässig wäre, solche Software als Mittel zum Zweck und nicht als Selbstzweck zu behandeln. Wenn wir uns der utilitaristischen Ethik anschließen, würden wir feststecken, da wir nicht wissen können, was Freude oder Schmerz für ein nicht fühlendes Wesen bedeuten würde. usw. usw.

-1 Das scheint mir eher ein Strohmann von Turings Vorschlag zu sein. Der springende Punkt bei TTT ist, dass, wenn ein Stück Software in der Lage ist, in einem Gespräch nicht von einem Menschen zu unterscheiden, wer sind wir dann, es als empfindungslos zu beurteilen? Der Mangel an anderen potenziellen Kriterien für moralische Persönlichkeit (Roger-Penrose-Seelenpartikel müssen noch gefunden werden!) bedeutet, dass wir arrogant wären, etwas anderes anzunehmen. Abgesehen von all dem war meine Frage in der Bedingung formuliert, und Ihre gesamte Antwort ist einfach eine glatte Verneinung der Bedingung.
Ich denke nicht, dass es ein Strohmann von Turings Vorschlag ist, eher eine genaue Darstellung davon. Turings Messlatte schien damals unglaublich hoch, aber jetzt sehen wir, dass wir, obwohl sie vielleicht bald erreicht ist, noch weit von etwas entfernt sind, das dem Bewusstsein ähnelt. Darüber hinaus wies meine Antwort darauf hin, dass wir, selbst wenn wir etwas erreichen würden, das dem Bewusstsein ähnelt, noch weit von der Empfindungsfähigkeit entfernt sind . Ich leugne also nicht nur die Bedingung, ich leugne die Schlussfolgerung, selbst wenn wir die Bedingung festlegen.
Die Frage ist nicht, ob der Turing-Test ein guter Test der moralischen Persönlichkeit ist. Es geht darum, was die Implikationen wären, wenn man es so annimmt.
@Seamus: Ich dachte, ich würde das über eine Reduktion tun . Die meisten ethischen Systeme belasten das Empfindungsvermögen weitaus stärker als das bloße Bewusstsein für moralische Persönlichkeit; Wenn wir festlegen, dass eine KI, die den Turing-Test bestehen kann, für die moralische Persönlichkeit ausreicht, dann würde das Abschalten einer solchen Maschine einen Mord darstellen. Das scheint mir eine absurde Schlussfolgerung zu sein, die darauf hindeuten würde, dass die Bestimmung falsch ist.
Das Neustarten Ihres Telefons ist wohl nicht unmoralischer, als eine Person in den Schlaf zu versetzen. Das Zurücksetzen Ihres Telefons auf die Werkseinstellungen könnte ein echtes moralisches Problem sein, wenn wir Telefone hätten, die den Turing-Test bestehen. Aber ich denke immer noch, dass dies nebensächlich ist. Wenn Sie der Meinung wären, dass das Bestehen des Turing-Tests für die moralische Persönlichkeit ausreicht, würden Sie Ihren Computer nicht neu formatieren . Jedes moralische System, das sagt, „moralische Personen zu zerstören ist schlecht“, hat diese Konsequenz. Ich denke, die Frage ist, welche moralischen Systeme besser mit "niedrigen" Barrieren für die Persönlichkeit zurechtkommen.
Nebenbei erinnert mich einiges davon an Egans Kurzgeschichte „ Kristallnächte “ – der Protagonist macht schließlich seine simulierte Bevölkerung „unsterblich“, um seine Schuld zu besänftigen. Sie können die Geschichte hier online lesen: ttapress.com/553/crystal-nights-by-greg-egan