Schwierigkeiten zu verstehen, wie das chinesische Raumexperiment den Computerfunktionalismus widerlegt

Ich höre John Searles Vorlesungen über die Philosophie des Geistes ( https://www.youtube.com/watch?list=PL039MUyjHR1wfJpULVP1a1ZeCBmIHmhxt ) und verstehe die Bedeutung seines Gedankenexperiments im chinesischen Raum nicht wirklich. Für mich scheint es darauf hinauszulaufen, "stellen Sie sich ein Programm vor, das sich nur mit Syntax befasst, dann kann dieses Programm nicht mit Semantik umgehen", aber das zeigt nicht, dass kein Programm mit Semantik umgehen kann. Gibt es etwas, das ich vermisse?

Kommentare sind nicht für längere Diskussionen gedacht; diese Konversation wurde in den Chat verschoben .
Ich frage mich, woher dieses "kann nicht mit Semantik umgehen" kommt. Das ist so eine seltsame Art, es auszudrücken. Vielleicht sollten wir zuerst versuchen, richtig zu verstehen, was das Argument zu zeigen versucht . Und dann diskutieren, ob es gelingt oder fehlschlägt.

Antworten (6)

Dies ist eines der am meisten diskutierten Argumente in der Philosophie des Geistes. Die Diskussion umfasst fast alle wichtigen Themen der Disziplin. Daher werde ich seine Auswirkungen und seinen Einfluss auf das Feld nicht ansprechen.


Beginnen wir zunächst mit dem eigentlichen Argument (für eine einfache Zusammenfassung, entnommen aus Wikipedia ):

Nehmen wir an, dass es der Forschung im Bereich der künstlichen Intelligenz gelungen ist, einen Computer zu konstruieren, der sich so verhält, als würde er Chinesisch verstehen. Es verwendet chinesische Schriftzeichen als Eingabe und erzeugt, indem es den Anweisungen eines Computerprogramms folgt, andere chinesische Schriftzeichen, die es als Ausgabe darstellt ...

Searle nimmt dann an, dass er sich in einem geschlossenen Raum befindet und ein Buch mit einer englischen Version des Computerprogramms hat, zusammen mit ausreichend Papier, Bleistiften, Radiergummis und Aktenschränken. Searle konnte chinesische Schriftzeichen durch einen Schlitz in der Tür empfangen, sie gemäß den Anweisungen des Programms verarbeiten und chinesische Schriftzeichen als Ausgabe erzeugen ...

Searle behauptet, dass es keinen wesentlichen Unterschied zwischen der Rolle des Computers und ihm selbst im Experiment gibt. Jeder folgt einfach Schritt für Schritt einem Programm und erzeugt ein Verhalten, das dann vom Benutzer als Demonstration einer intelligenten Konversation interpretiert wird. Searle selbst würde das Gespräch jedoch nicht verstehen können. ("Ich spreche kein Wort Chinesisch", gibt er zu bedenken.) Daraus folgt, argumentiert er, dass der Computer das Gespräch auch nicht verstehen könne.

Im Wesentlichen ist die Wurzel des Arguments für Searle das Konzept der „ Intentionalität “ (von SEP ):

Intentionalität ist die Kraft des Geistes und der mentalen Zustände, sich mit Dingen, Eigenschaften und Sachverhalten zu befassen, sie darzustellen oder für sie zu stehen. Von den mentalen Zuständen eines Individuums zu sagen, dass sie Intentionalität haben, bedeutet zu sagen, dass sie mentale Repräsentationen sind oder dass sie Inhalte haben.

Was Searle behauptet , ist angesichts der Tatsache, dass ich die KI einfach ersetzen kann, eine Blackbox (wo ich unmöglich sagen kann, ob sie Intentionalität hat oder nicht) durch eine Whitebox-Situation, in der ich beweisen kann, dass ich keine Intentionalität habe – ich habe es bewiesen dass die KI keine Intentionalität hat. Dies hilft Searle, gegen das zu argumentieren, was er „starke KI“ nennt, dh die Ansicht, dass KI nicht nur das Gehirn simuliert , sondern tatsächlich genau dasselbe ist .


Hier fängt es an, etwas knifflig zu werden, denn wie bei jeder philosophischen Idee beginnt die Diskussion um Widerlegungen. Aber ich werde versuchen, die Mehrheit der Widerlegungen auf einen einzigen Punkt zusammenzufassen:

Im Kern von Searles Argumentation liegt die Annahme, dass die White-Box-Situation auseinander genommen werden muss (eine Art Reduzierung der Situation), wenn man davon ausgeht, dass der Mann in der Situation kein Chinesisch versteht. Wir können jedoch leicht argumentieren, dass diese Annahme falsch ist, und stattdessen die Situation als Ganzes betrachten (dh der gesamte Raum funktioniert als ein Organismus/eine Maschine, eine Art ganzheitliche Sicht auf die Situation). Auf diese Weise können wir argumentieren, dass der Raum selbst Chinesisch versteht, auch wenn der Mann im Inneren dies zur Reduktion nicht tut. Dies berührt ein viel breiteres Thema in der Philosophie als Ganzes und insbesondere in der Philosophie des Geistes – das Problem des Holismus versus Reduktionismus (das in der Diskussion des Emegentismus am prominentesten ist, schön illustriert in Hofstadters Gödel, Escher, Bach ).


Nun gibt es natürlich viele Antworten und Berge von Widerlegungen und Zurückweisungen, und hier ist nicht der Ort, sie alle zu diskutieren. Ich würde jedoch vorschlagen, wenn Sie ein vollständigeres Bild wünschen, den SEP-Artikel zu diesem Thema zu lesen . Auch Partially Examined Life hat ein paar nette Episoden zum Thema Funktionalismus (221-223).

aber das zeigt nicht, dass kein Programm mit Semantik umgehen kann.

In gewisser Weise tut es das, wenn Sie akzeptieren, was Searles Definition eines Programms bedeutet. Er meint, was Computeringenieure meinen, wenn sie von Programmen sprechen, eine Reihe von Anweisungen.

Die Bedeutung des chinesischen Raumarguments (CRA) besteht darin, zu zeigen, dass künstliche Intelligenz niemals ein wahres Verständnis haben kann, zumindest im intuitiven Sinne des Wortes, aber die Art und Weise, wie Verständnis definiert wird, selbst mehrdeutig ist. Dies zeigt sich auch in modernen KI-Bilderkennungssystemen, die eine Objekterkennung anhand von Bildern durchführen, und Bilder, bei denen Sie den Hintergrund erkennen und das Objekt in einen Kontext stellen müssen, lösen häufig die KI aus und geben falsche Ergebnisse. Dies liegt nicht daran, dass die KI die Geometrie des Objekts nicht klassifiziert hat, indem sie analysiert hat, wo Kanten beginnen und wie sich die Farben ändern, sondern darum, worum es im Hintergrund geht (ob es sich um einen sonnigen Strand oder einen Parkplatz handelt). Dies könnte ein Hinweis darauf sein, dass wir eine immer komplexere KI bauen müssten, die das Ganze erkennen kann, nicht nur Objekte im Bild, sondern die Tatsache, dass es sich um "

Lassen Sie uns mit diesen Worten etwas tiefer in die Analyse einsteigen. CRA ist im Grunde ein Mensch, der Anweisungen ausführt, die er im Regelbuch liest, aber dies setzt voraus, dass der Mensch das Englisch im Buch "versteht". Von außen versteht der Raum Chinesisch und das reicht für einen chinesischen Muttersprachler, aber von innen kann man das nicht über einzelne Komponenten (die Wände, den Tisch, das Buch oder den menschlichen Bediener) sagen. Es ist unsere Intuition, dass wir Dinge verstehen, aber der Zweck dieses Experiments ist es zu zeigen, dass diese „Intuition“ nicht erklärt werden kann, indem man die einzelnen Mikroexplosionen untersucht, die in den neuralen Synapsen eines Menschen ablaufen. Wenn der Mensch Englisch liest, was geht eigentlich in ihm vor? Energie wird durch Bewegung gemischt, und es Es ist einfach eine Neuanordnung von Partikeln, die den Menschen von einem nicht verstehenden Zustand in einen verstehenden Zustand bringen, wie er von außen gesehen wird. Aus menschlicher Sicht ist das „Gefühl“ des Verstehens jedoch ein ganz anderes. Dieses intuitive Gefühl kann nicht allein in einer mechanistischen Beschreibung des Systems erklärt werden, was Searle zu der Feststellung veranlasst, dass kein Computersystem ein wahres Verständnis haben kann oder zumindest so, wie Menschen es für so halten, aber es gibt absolut nichts, was dies verhindert Prinzip. Wenn wir dieser Argumentation zu uns folgen, dann haben auch wir überhaupt kein wahres Verständnis von irgendetwas. Dieses intuitive Gefühl kann nicht allein in einer mechanistischen Beschreibung des Systems erklärt werden, was Searle zu der Feststellung veranlasst, dass kein Computersystem ein wahres Verständnis haben kann oder zumindest so, wie Menschen es für so halten, aber es gibt absolut nichts, was dies verhindert Prinzip. Wenn wir dieser Argumentation zu uns folgen, dann haben auch wir überhaupt kein wahres Verständnis von irgendetwas. Dieses intuitive Gefühl kann nicht allein in einer mechanistischen Beschreibung des Systems erklärt werden, was Searle zu der Feststellung veranlasst, dass kein Computersystem ein wahres Verständnis haben kann oder zumindest so, wie Menschen es für so halten, aber es gibt absolut nichts, was dies verhindert Prinzip. Wenn wir dieser Argumentation zu uns folgen, dann haben auch wir überhaupt kein wahres Verständnis von irgendetwas.

Das Problem, das ich habe, ist, dass er die Frage zu stellen scheint: Er will beweisen, dass eine KI kein Verständnis haben kann, aber er nimmt an, dass das Programm auf die Manipulation von Symbolen beschränkt ist.
@uninspiredUsername Kannst du beweisen, dass Menschen Verständnis haben? Programme und Menschen sind beide äußerlich beobachtbar als ein Mischen von Symbolen, Energie, Partikeln. Seine verborgene Absicht besteht darin, zu zeigen, dass "Qualia des Verstehens" eine unbestreitbare Tatsache unserer Erfahrung ist, die nicht durch bloße Beobachtung mechanistischer Prozesse erfasst wird, sei es irgendetwas. Er spricht nicht von „Verstehen“, da er zugibt, dass das Problem ungelöst ist und seine Lösung ist: mit einem tieferen Verständnis dafür, wie neurologische Informationen verarbeiten, und dem Vergleich mit traditioneller Berechnung, um den Unterschied zu finden.

Das mag simpel erscheinen, ist es aber nicht: Es läuft darauf hinaus:
Egal wie gut eine Maschine einen Menschen mit einem Verstand simulieren kann, sie besteht im Wesentlichen immer noch nur aus Zahnrädern und Riemenscheiben im Inneren.

Dies gilt weiterhin, egal wie gut die Simulation wird. Selbst wenn die Simulation so gut wird, dass es buchstäblich keinen Unterschied mehr zwischen einem lebenden menschlichen Geist und der chinesischen Raummaschine gibt, sind es immer noch nur Zahnräder und Riemenscheiben im Inneren.

Irgendwann, nachdem es vollständig selbstprogrammiert ist und freien Willen, Empathie, persönliche Einsicht, eine menschliche Persönlichkeit mit individuellen persönlichen Vorlieben und Einstellungen simulieren kann, könnten wir es das funktionale Äquivalent eines menschlichen Geistes nennen. An dieser Stelle mag es sinnvoll erscheinen, ihm Menschenrechte zu gewähren.

Da der ursprüngliche Beitrag einen schlechten Link hat, ist hier ein guter Link
The Chinese Room Argument
https://www.youtube.com/watch?v=18SXA-G2peY

"Aber das zeigt nicht, dass kein Programm mit Semantik umgehen kann."
Ja du hast Recht. Ich musste mir dieses Video ansehen, bevor ich Ihre Basis verstehen konnte:
https://www.youtube.com/watch?v=18SXA-G2peY

Damit die chinesische Raummaschine einen menschlichen Geist perfekt simulieren kann, muss sie auch das tatsächliche Verständnis der vollständigen Semantik ihrer Eingabe perfekt simulieren.

Die semantischen Regeln werden spezifiziert und syntaktisch verarbeitet, indem die gleichen Beziehungen zwischen endlichen Zeichenketten gebildet werden, die ein menschlicher Verstand zwischen Wörtern bilden würde. (Das Cyc-Projekt macht es auf diese Weise mit seiner CycL-Sprache).

Da das chinesische Zimmer das funktionale Äquivalent des menschlichen Verständnisses hervorbringt, können wir sagen, dass es das Verständnis der Semantik demonstriert.

Zu dem Zeitpunkt, an dem es alle menschlichen Eigenschaften vollständig demonstriert, einschließlich: freier Wille, persönliche Präferenzen, psychologische Einstellungen und eine voll funktionsfähige Persönlichkeit, können wir ihm im Zweifelsfall den Status eines Menschen zusprechen.

Ich denke, dass Searles Argument immer noch stärker ist, als hier anerkannt wird. Um zu verstehen, warum, betrachten Sie die Definition einer Turing-Maschine: https://en.wikipedia.org/wiki/Turing_machine Ich werde hier nicht auf die Definition eingehen, aber es genügt zu sagen, dass dies eine Routine-Symbolmanipulation par excellence ist . Und doch wird weithin angenommen (Church-Turing-These), dass dieses einfache Modell alles erfasst, was rechnerisch getan werden kann, einschließlich aller künstlichen Intelligenz, wie wir sie üblicherweise betrachten. Sicherlich erfasst es alles, was die heutige KI tut.

Nun, wie bereits erwähnt, gibt es eine Frage der Größenordnung. Wenn ich an eine einfache Turing-Maschine denke, kann ich mir ihre Schritte einzeln ausrechnen. Aber wenn ich an ausgeklügelte KI denke, ist das nicht mehr sehr hilfreich – es ist einfach zu viel für mich, zu versuchen, alle Schritte in meinem Kopf zu simulieren. Dafür müssen wir nicht über KI auf menschlicher Ebene nachdenken; Selbst wenn ich Go gegen AlphaGo spiele, ist es praktischer und effektiver, es so zu sehen, als würde ich das Spiel verstehen und versuchen , mich zu schlagen (und dabei sicherlich erfolgreich sein). Aus rein praktischen Gründen ist es also sinnvoll, es als Verständnis des Spiels zu betrachten.

Aber es gibt auch Bedeutungen des Wortes „Verstehen“, bei denen wir skeptisch sein könnten, dass AlphaGo Go versteht. Ist es eigentlich so, AlphaGo zu sein? Hat es Qualia? Hat es ein echtes Verständnis dafür, was es tatsächlich tut, wenn es Go spielt? Viele, einschließlich der meisten KI-Forscher, würden sagen, dass dies nicht der Fall ist, da wir immer noch wissen, dass im Grunde nur viele winzige Berechnungsschritte ablaufen, die auf routinemäßige Weise ausgeführt werden, möglicherweise auf mehrere Maschinen verteilt, und das scheint so zu sein kein Grund zu der Annahme, dass es irgendwo ein zentralisiertes „Bewusstsein“ auf höherer Ebene für das Spiel gibt.

Aber nehmen wir nun an, wir schaffen es tatsächlich, KI auf menschlicher Ebene zu bauen, und nehmen an, dass wir dies auf eine Weise tun, die sich nicht drastisch von der heutigen Denkweise über Berechnungen unterscheidet – und das ist der Punkt des chinesischen Raums, der Art und Weise, wie wir darüber nachdenken Heutzutage könnte alles, was wir tun, von einem chinesischen Raum implementiert werden (wenn auch extrem langsam), da er eine Turing-Maschine simuliert. Wenn wir dann skeptisch sind, dass AlphaGo Go wirklich „versteht“, warum sollten wir dann nicht genauso skeptisch sein, dass diese KI auf menschlicher Ebene wirklich versteht, wovon sie spricht? Wenn ich etwas verstehe, gibt es etwas, das so ist, gibt es eine Art scheinbar zentralisiertes Bewusstsein dafür, was verstanden wird. Aber es ist nicht klar, warum wir denken sollten, dass die KI auf menschlicher Ebene ein so offensichtlich zentralisiertes Bewusstsein hat, wenn wir nur die Mechanik ihrer Funktionsweise untersuchen, aus dem gleichen Grund, aus dem wir vielleicht denken, dass AlphaGo es nicht hat.

Und doch gibt es natürlich auch eine starke Intuition, dass, wenn wir es befragen und es so antwortet, wie es ein Mensch tun würde, wir denken würden, dass es wirklich verständnisvoll ist. Ich sage also nicht, dass ich Searles Argument vollständig akzeptiere. Aber ich denke, es wirft eine sehr schwierige Frage auf, und es ist nicht entschieden widerlegt worden. Natürlich verstehen wir in ähnlicher Weise immer noch nicht wirklich, wie all unsere eigenen Neuronen, die feuern, irgendwie die Art von Bewusstsein erzeugen, die wir haben. Das ist meiner Meinung nach der Punkt des Arguments – es wirft einige schwierige Fragen auf und weist darauf hin, dass es immer noch echte Lücken in unserem Verständnis dieser Dinge gibt, und wie Sie wahrscheinlich aus dem oben Gesagten ersehen können, denke ich, dass sie es sind eng verbunden mit einigen der schwierigen Probleme des Bewusstseins.

Searles Argument wurde in Hofstaedters berühmtem Buch über Gödel, Escher und Bach zurückgewiesen oder widerlegt - was auch immer Sie bevorzugen.

Er verwirrt Sie im Grunde, indem er Tonleitern verwechselt. Ihr Gehirn besteht aus einigen Milliarden Gehirnzellen. Diese Gehirnzellen übernehmen die gesamte Datenverarbeitung. Keine der Gehirnzellen hat Verständnis oder Bewusstsein. Dennoch hast du Bewusstsein und du verstehst Dinge.

Er ordnet das Gehirn einem Raum zu, der nicht mit Milliarden überdimensionaler Gehirnzellen gefüllt ist, sondern mit einem einzigen Menschen, der Symbole manipuliert. Dieser Mensch versteht keines der Symbole. Deshalb, sagt Searle, verstehe der Raum nichts.

Aber er spielt einen Streich. Indem ein Mensch die Symbolmanipulation nur langsam durchführt, anstatt dass eine Milliarde Zellen dies viel schneller tun, erzeugt er einen Geschwindigkeitsunterschied von mindestens 1 : 10 Milliarden, wahrscheinlich mehr. Was Sie also in einer Sekunde tun, braucht dieser arme Mann mindestens Hunderte von Jahren. Unser Verstand würde einem System, das 300 Jahre braucht, um zu reagieren, kein Verständnis und keine Intelligenz zuschreiben. Aber machen Sie es zehn Milliarden Mal schneller. Jetzt haben Sie etwas, das ähnlich wie ein Mensch reagiert. Mit ihr kann man sich unterhalten. Und an diesem Punkt gibt es keinen guten Grund zu sagen, dass dieser Raum weniger Verständnis hat als Sie.

Und wir haben immer noch kein Programm entwickelt, das diese Art von Verständnis hätte, also gibt es im Moment keinen „verstehenden“ Computer. Das bedeutet nicht, dass es nicht erstellt werden kann.

Was hat Schnelligkeit mit „Verständnis“ zu tun? Mein Computer kann Berechnungen in einer Sekunde durchführen, aber er hat keine Ahnung, was er tut. Nach Ihrer Argumentation hätte ich "keinen Grund zu sagen, dass mein Computer weniger Rechenverständnis hat als ich". Wie würde ein "Verständnis"-Algorithmus aussehen: eine Reihe von Anweisungen, die Konzepte wie "Anweisungen" verstehen?