Modelliert Searle's Chinese Room Computer korrekt?

Searle erfand ein Gedankenexperiment, das Chinesische Zimmer , das seiner Meinung nach ein Argument gegen die starke KI (das Maschinen denken) ist, aber nicht gegen die schwache KI (dass Maschinen das Denken simulieren), er hat einen Mann in einem Raum, der chinesische Symbole über ein Anleitungsbuch manipuliert in Englisch geschrieben.

Meine Frage ist: Woher kommt dieses Anleitungsbuch? Wir sind uns alle bewusst, dass Menschen den Code schreiben, der einen Computer antreibt, oder Code schreiben, der mehr Code schreibt, um einen Computer anzutreiben (z. B. einen Compiler) usw.

Meine Klarstellung (das heißt, falls ja) von Searles Gedankenexperiment Chinesisches Zimmer ist, einen Mann (John), der kein Chinesisch versteht, in einem Raum mit zwei Fenstern zu haben. An einem Fenster stellt jemand (Mai) Fragen auf Chinesisch, am anderen Fenster steht ein Mann (Lao), der Chinesisch versteht; Wenn eine Frage gestellt wird, nimmt John die Frage, geht durch den Raum und reicht sie durch das Fenster und gibt sie Lao, der sie liest, beantwortet, und dann geht John zurück zum ersten Fenster und gibt die Antwort zurück zum Mai.

Für Mai scheint es, dass John Chinesisch versteht (auch wenn er sich seltsamerweise weigert, es zu sprechen). Sie ist sich nicht bewusst, dass er einen geheimen menschlichen Mitarbeiter hat, Lao.

Ich denke, dies modelliert viel klarer, was tatsächlich in einem Computer passiert. Aber ist das eine genaue Analogie?

Ich wollte eine Antwort posten, aber ich denke, das passt besser als Kommentar. Jeder greift gern Searle's Chinese Room an, weil es ein besonders einfaches Gedankenexperiment ist, das man angreifen kann. Sogar Searle hat zugegeben, dass es nicht so toll ist. Seine Position als starke/schwache KI hat jedoch einige sehr gute Argumente (in seinem Buch umrissen - ich bin mir nicht sicher, wie viele Antwortende es tatsächlich lesen). Das Chinesische Zimmer ist nur ein peripheres Gedankenexperiment, kein zentraler Grundsatz.
@Titarenco: Was ist eigentlich seine Position zu starker/schwacher KI?
@MoziburUllah zu: Searles Position zur Unterscheidung zwischen stark und schwach: der ursprüngliche Artikel von Searle aus dem Jahr 1983, „ Mind, Brains and Programs “? Auch Kapitel 2 von Minds, Brains and Science, „ Can Computers Think?
@Mr.Kennedy: Damals gab es auf dieser Seite kaum Fragen oder Antworten; tun Sie sich selbst einen Gefallen und lernen Sie, Kritik konstruktiv statt böse zu nehmen; Danke, dass Sie diese Refs gefunden haben.
Nein, das tue ich nicht; aber auch nicht so tun, als würde ich den Unterschied zwischen schwacher KI und starker KI nicht kennen - ist das eine Form von "Gehabe"? Oder haben Sie diesen sehr kurzen Text nur „schnell durchgelesen“? Und angesichts dessen, wie soll ich Ihre „intellektuelle Aufrichtigkeit“ nehmen? Suchen Sie in meinem Archiv mit Fragen und Antworten nach einer Schwachstelle, um einen Angriff zu starten? Und wenn ja, wie wirkt sich das auf Ihre „intellektuelle Aufrichtigkeit“ aus?
@MoziburUllah kurz gesagt, Sie haben Searles Argument einfach falsch gelesen. The Chinese Room ist eine Widerlegung der Computational Theory of Mind, kein Argument gegen die Vorstellung, dass Maschinen denken könnten. Die starke/schwache KI-Unterscheidung zeigt, dass syntaktische Maschinen (dh Turing-Maschinen) nicht ausreichen, um semantischen Inhalt zu erreichen.
Darüber hinaus machen Richard Feynman und Searle beide den gleichen Punkt in Bezug auf syntaktische Manipulation mit einer Analogie, bei der jemand in einer Box nach einem Regelbuch vorkommt.

Antworten (7)

Was Sie angeben, ist, dass der Wälzer, der es John ermöglicht, Kommunikation auf Chinesisch zu simulieren, eine ziemlich enorme Rechenressource ist: eine, die in ihrer Komplexität sehr nahe kommt – vorausgesetzt, ihre Regeln sind komplex genug, um jahrelange Gespräche auf die gleiche Weise wie ein chinesischer Essayist erfolgreich zu führen könnte – um einfach mit einer chinesischen Person zu sprechen. Und ich denke, dass Sie im Wesentlichen Recht haben. Obwohl das Buch selbst ein statisches Objekt ist, codiert es Regeln, um einen interaktiven Prozess zu simulieren (durch seine Konstruktion!) und ist daher in Bezug auf seinen Wert als Gesprächsressource nicht sehr von einer chinesischen Person zu unterscheiden.

Offensichtlich ist ein Buch kein bewusster Chinese. Ich denke, wir können mit einiger Zuversicht sagen, dass ein Buch für sich genommen keine Art von bewusster Entität ist. Aber ein Buch, wie Searle es sich vorstellt, wäre eine Informationsquelle von enormer Macht; von absurd enormer Kraft, in der Tat. (Und jemand, der geduldig genug war, um es erfolgreich zu verwenden, wäre auch kein Problem mit Berechnungen oder zumindest der zuverlässigen Ausführung komplizierter Regelsysteme.) Einer der größten Fehltritte von Searle besteht darin, sich vorzustellen, dass wir uns das realistisch vorstellen können wie dieses Buch (oder sein Benutzer) aussehen müsste, um den Zweck zu erreichen, den er damit verfolgt. Es müsste im Wesentlichen so kompliziert sein wie ein ziemlich großer Teil eines menschlichen Gehirns, ein andereretwas, das wir auf keiner anderen Ebene als einer im Wesentlichen syntaktischen verstehen.

Es gibt einen Grund , warum das Bewusstsein so ein Mysterium ist. Wir haben nicht die geringste Ahnung, wie wir die Welt so verstehen können, dass wir sowohl Vorhersagekraft haben als auch die Fähigkeit, diese Vorhersagekraft zu nutzen, um zu beschreiben, woraus Bewusstsein überhaupt besteht, abgesehen davon, dass wir es selbst erfahren und beschreiben die Symptome des scheinbaren Bewusstseins bei anderen. Indem wir sagen, dass Computer kein Bewusstsein haben können, weil wir keinen Mechanismus kennen, der es ihnen ermöglichen würde, aus der mechanischen Evolution hervorzugehen, fassen wir auch das Problem zusammen, das wir haben, wenn wir unser eigenes Bewusstsein verstehen.

Scott Aaronson, Professor für Informatik am MIT, hat ganz ähnliche Dinge zu sagen. Das Folgende ist ein Auszug aus einer Reihe von Notizen aus einem Vortrag von ihm über Künstliche Intelligenz , aus einem exzellenten und weitreichenderen Vortragsangebot.

Gab es in den letzten fünfzig Jahren neue Erkenntnisse über den Turing-Test selbst? Meiner Meinung nach nein. Andererseits gab es eine Nichteinsicht, die Searle's Chinese Room genannt wird. Dies soll ein Argument dafür sein, dass selbst ein Computer, der den Turing-Test bestanden hat, nicht intelligent wäre. Nehmen wir an, Sie sprechen kein Chinesisch. (Debbie [eine chinesisch-amerikanische Kollegin von Scott] ist heute nicht hier, also denke ich, dass das eine sichere Annahme ist.) Sie sitzen in einem Raum und jemand reicht Ihnen Zettel durch ein Loch in der Wand mit Fragen, die auf Chinesisch geschrieben sind, und Sie können die Fragen (wieder auf Chinesisch) beantworten, indem Sie einfach ein Regelbuch konsultieren. In diesem Fall führen Sie vielleicht ein intelligentes chinesisches Gespräch, verstehen aber vermutlich kein Wort Chinesisch!

[...] Wie viele andere Gedankenexperimente bezieht auch das Chinesische Zimmer seine Wirkung aus einer trügerischen Wahl der Bildsprache – und, genauer gesagt, aus dem Ignorieren der Rechenkomplexität. Wir sind eingeladen, uns vorzustellen, wie jemand Zettel mit null Verständnis oder Einsicht herumschiebt – ähnlich wie die dummen Erstsemester, die (a+b) 2 = a 2 + b 2 schreibenbei ihren Mathetests. Aber von wie vielen Zetteln reden wir? Wie groß müsste das Regelbuch sein und wie schnell müsste man es konsultieren, um ein intelligentes chinesisches Gespräch in annähernd Echtzeit zu führen? Wenn jede Seite des Regelbuchs einem Neuron von (sagen wir) Debbies Gehirn entspräche, dann würden wir wahrscheinlich von einem "Regelbuch" sprechen, das mindestens so groß wie die Erde ist und dessen Seiten von einem Schwarm von Robotern durchsucht werden können, die sich in der Nähe bewegen auf Lichtgeschwindigkeit. Wenn Sie es so ausdrücken, ist es vielleicht nicht so schwer vorstellbar, dass diese riesige chinesischsprachige Einheit – dieses dian nao – die wir ins Leben gerufen haben, etwas haben könnte, das wir Verständnis oder Einsicht nennen würden.

Es gibt einen Grund, warum Literaturtheoretiker so viel aus dem ausgegraben haben, was im Vergleich so wenig erscheinen kann. Vergleichen Sie das Korpus der Kritik an Shakespeares Stücken mit dem Korpus der Stücke selbst und warum sie vom Dialog zwischen Text und Leser sprechen. Nettes Zitat von Scott; Ich stimme vollkommen zu; obwohl ich denke, dass er ein bisschen hart zu Searle ist: Ein Gedankenexperiment kann in den Händen anderer ein Eigenleben entwickeln.
Ich habe diese Herausforderung schon einmal gesehen, und sie ist so schlimm, dass ich sie nicht einmal als falsch bezeichnen kann. Die Behauptung, die Sie von Aaronson zitieren, ist, dass das getestete Modell nicht richtig sein kann, weil es nicht die gleiche Komplexität aufweist, die wir erwarten würden ?! Das wirft die Frage auf, macht sich nicht die Mühe, die Herausforderung des syntaktischen Verständnisses anzugehen, und geht einfach davon aus, dass Semantik nicht existieren kann , es sei denn, wir haben eine magische Grenze komplexer Beziehungen, unter der wir sie verstecken können.
@RyderDain: Der springende Punkt ist, dass, wenn Sie ein metaphysischer Naturforscher sind, jede Behauptung, dass Computer auf syntaktische Manipulationen beschränkt sind, genauso gut auf uns selbst zutrifft. (Wenn einige der Leute in der Diskussion metaphysische Naturforscher sind und andere nicht, dann kann man genauso gut nach Hause gehen, weil sie nur aneinander vorbei argumentieren; da ich Naturforscher bin, argumentiere ich daher von dieser Prämisse aus.) Unter dieser Prämisse ist die einzige Einschränkung des Buchinterpretersystems die Komplexität; es lediglich als Bürokrat mit einem einfachen Regelwerk zu karikieren, verschleiert im Grunde die Komplexität des Systems.
@NeilDeBeaudrap: Lassen Sie uns hier wirklich ad absurdum führen : Ich könnte möglicherweise genau dieselbe Anklage gegen Befürworter des Heliozentrismus erheben. Es kann unmöglich die komplexen Umlaufbahnen erklären, die wir von der Erde aus sehen, und es würde nicht dem ähneln, was wir bereits zu wissen glauben, wenn Sie nicht versuchen würden, auch die galaktische Präzession in das Modell aufzunehmen! Es gibt viele gute Argumente, warum Searles Experiment fehlschlägt, aber es mit einem Mangel an vermutlich ausreichender Komplexität zu bewerfen, gehört nicht dazu.
@RyderDain: Es ist klar, dass du mich missverstehst. Ich sage, wenn Sie einen solchen Wälzer konstruieren, wäre es bemerkenswert komplex. Ich schließe daraus nicht, dass es absurd ist (obwohl Searle keinen Vorschlag macht, wie wir ein solches Buch machen würden; darum geht es ihm natürlich nicht). Searle ist derjenige, der es für absurd hält, dass das Buch-Dolmetscher-System ein chinesisch sprechender Agent sein kann; Ich sage, es ist nicht offensichtlich absurd, da sowohl das Buch als auch der Dolmetscher keinem Buch oder Dolmetscher ähneln würden, mit dem wir Erfahrung haben.
@RyderDain: Auf jeden Fall bin ich mir nicht sicher, ob wir mit dieser Diskussion irgendwo hinkommen, es sei denn, Sie können mir beschreiben, warum es absurd ist, dass ein Computer ein Bewusstsein haben kann, aber nicht absurd, dass (da wir aus Atomen und Ionen bestehen die wie Computer nach physikalischen Prinzipien interagieren) können wir.
@NieldeBeaudrap: Das können wir wahrscheinlich nicht. Ich verstehe nicht, wie Sie zu dieser Position kommen können, ohne die Existenz von Semantik zu leugnen, was ich absurd finde, oder zumindest auf eine Eigenschaft hinzuweisen, die eine bestimmte Art von Komplexität tatsächlich als Ort bieten kann, an dem nach Bewusstsein gesucht werden kann.
@RyderDain: Ich bestreite nicht, dass Semantik existiert; Meine Philosophie der Mathematik ist jedoch, dass die Bedeutung (um einen weniger belasteten Begriff zu verwenden) von Notationssystemen aus den funktionalen Beziehungen in ihnen entsteht, und dass Semantik nichts anderes ist als der Prozess, Assoziationen zwischen den Symbolen und der funktionalen Bedeutung herzustellen eine vorausschauende Weise. Ich denke, das ist ungefähr das, was menschliche Gehirne für Symbole, Geräusche, Gesichtsausdrücke usw. tun, wo einige eingebaut sein können. Ich sehe keinen Grund, warum ein Programm semantische Assoziationen nicht ähnlich wie unser Gehirn verkörpern könnte.
Aaronson hat Searles Argument falsch interpretiert, denn ob das Computerprogramm als „intelligent“ beschreibbar ist oder nicht, ist völlig nebensächlich. Wie in seinem ursprünglichen Artikel ausgeführt, ist Schranks Programm wohl „intelligent“ und ein Beispiel für „schwache KI“, aber es ist nicht bewusst (sprich: kann nicht sein). Syntax != Semantik.
@Mr.Kennedy: Syntax ist lediglich ein Codierungsmechanismus. Wenn Sie der Meinung sind, dass die Art und Weise, wie der Computer diese Syntax verarbeitet, um die Funktion der Konversation zu erzeugen (aus der ein Mensch Bedeutung ableiten kann), keine Semantik verkörpert, müssen Sie mir sagen, woraus Semantik Ihrer Meinung nach besteht und wie sie erscheinen kann Semantik zu erhalten, ohne tatsächlich Semantik zu haben. Idealerweise können Sie dies auch auf eine Weise tun, die zumindest mit dem metaphysischen Naturalismus vereinbar ist.
@NieldeBeaudrap Es geht nicht um meine Position. Searle hat ausführlich zu diesem Punkt geschrieben und kommentiert, zB beobachterbezogene vs. beobachterunabhängige Informationsverarbeitung. Siehe Minds, Brains, Programs , „ Minds, Brains and Computers “, „ Minds Brains and Science “ et cetera. An anderer Stelle äußert sich Searle ausdrücklich zu seinen Ansichten zum „biologischen Naturalismus“ sowie zu seiner deskriptiven Metaphysik.

Ich bin sehr vertraut mit dem Argument, das John mit seinem „Chinese Room“-Argument vorbringt, und er ist äußerst konsequent darin, was er damit darstellen will: dass unser Konzept, was es bedeutet, Sprache zu verstehen, falsch ist, wenn wir versuchen, den Begriff auf eine Maschine anzuwenden die nur syntaktisch arbeitet. Es ist in erster Linie eine Widerlegung der Vorstellung, dass ein Turing-Test ausreicht, um zu behaupten, dass ein bewusstes Verständnis vorhanden ist.

Als Systemadministrator bei Tag und aufstrebender Philosophiestudent bei Nacht kann ich Ihnen voller Zuversicht sagen, dass John Searle Recht hat, wenn er behauptet, dass Computer rein syntaktisch arbeiten. Alles, was sie tun, ist Symbole zu manipulieren, und wir brauchen immer noch einen menschlichen Agenten, um diesen Symbolen eine Bedeutung zu verleihen. Dennoch ist die Erkenntnis, dass allein die Syntax eine so unglaubliche Kraft haben kann, die große Lektion unserer Zeit.

Das Problem mit dem Beispiel, das Sie oben gegeben haben, besteht darin, dass es genau den Punkt der Reduktion umgeht, den das chinesische Zimmer macht.

Im ursprünglichen Beispiel würde Mai ihre Antwort an eine große Kiste senden und in relativ kurzer Zeit verständliche Antworten von dieser Kiste (deren Bewohner sie agnostisch ist) erhalten. Aus Mais Sicht hat die Kiste den Turing-Test bestanden – Mai glaubt, dass sie von einem bewussten Wesen verstanden wurde. Auf Johns Seite hat er eine Reihe von Schubladen, die alle möglichen Antworten und Sätze für verschiedene Fragen enthalten, und der Reiseführer, den er bei sich trägt, leitet ihn einfach zu einer geeigneten Schublade, basierend auf der chinesischen Nachricht, die er erhält.

Die Intuition, auf die sich Searle hier stützt, ist, dass John kein Chinesisch versteht , also muss Mais Glaube, dass ihre Worte von einem bewussten Wesen verstanden werden, falsch sein. Der Versuch, das Gedankenexperiment zu wiederholen, bei dem Lao die Rolle des bewussten, verständnisvollen Responders spielt, umgeht somit nur das gesamte Argument, ohne das Problem anzusprechen, das es darstellt.

An diesem Punkt gibt es viele tiefe Meinungsverschiedenheiten: Wir könnten Mai verteidigen, indem wir behaupten, dass John + Box + Reiseführer zusammen ein System ergeben , das beispielsweise Chinesisch versteht. Searle selbst bestreitet, dass diese Position kohärent ist, aber nicht jeder kauft seine Meinung. Es gibt auch das Problem, das Daniel Dennett aufwirft, dass Searle einen Kategorienfehler macht, wenn er das Wort "Verstehen" verwendet. Nach Ansicht von Dennett ist Semantik für das Verständnis von Sprache unnötig, und syntaktische Operationen sind alles, was es gibt, um Bewusstsein zu erklären.

Sie könnten auch versuchen, den Vorwurf zu erheben, dass Searles Fehler darin besteht, zu glauben, dass es sogar eine Reihe von Regeln geben könnte, auf die eine lebende Sprache wie Chinesisch reduziert werden könnte. Dieses Argument hat jedoch zur Folge, dass es jede Möglichkeit bestreitet, dass ein Turing-Test jemals erfolgreich sein könnte. Um diesen Vorwurf zu erheben, müssen Sie daher bereits mit den Ergebnissen des Gedankenexperiments einverstanden sein: dass das Befolgen von Regeln allein unser normatives Verständnis dessen, was „Verstehen“ ausmacht, nicht erklären kann.

Definitiv die klarste Antwort! Ich möchte hinzufügen, dass ich keine kohärente Antwort auf eine Kritik im Dennett-Stil gesehen habe, nämlich dass die Intuition uns nur darüber täuscht, was „Verstehen“ ist. Das heißt, wenn wir Symbole auf verschiedene komplizierte Arten manipulieren (ohne uns der Schritte bewusst zu sein, aber vielleicht mit einer Metrik zur Qualitätsvorhersage, die uns sagen lässt, dass wir wahrscheinlich gute Arbeit leisten), nennen wir das Verständnis. Wenn eine Maschine dasselbe tut, sagen wir, es ist ein mechanistischer Prozess ohne Verständnis. (Aus dieser Sicht sind wir im Moment viel besser als Computer – aber es ist nur ein quantitativer Unterschied.)
@RexKerr Ich muss widersprechen: Die Standardantwort, dass Dennetts Kritik nur gültig ist, wenn das Verständnis de facto keine Beziehung zur Semantik hat, ist vollkommen kohärent. Es ist nur inkohärent, wenn Sie bereits leugnen, wie Dennett und andere es tun, dass Qualia-beladene Erfahrungen eine gültige Erklärung für jeden mentalen Zustand sind, den wir identifizieren, wenn wir sagen „x versteht p . Da werde ich keinen Fuß reinsetzen. Wenn Sie es lieber im Chat haben möchten, lassen Sie es uns nach draußen bringen.
In der Tat wäre Chat der richtige Ort. Ich möchte nur im Voraus anmerken, dass Qualia-beladene Erfahrungen beim Verständnis der Grundlage der Wahrnehmung fast hoffnungslos irreführend waren, und es gibt keinen Grund zu der Annahme, dass sie uns einen besseren Einblick in „Verstehen“ und „Denken“ geben.
@Dain: Ich akzeptiere Searles Behauptung tatsächlich: Dass Computer eine Sprache im signifikanten Sinne des Begriffs nicht lernen/verstehen können; Ich wollte Searles Reductio auspacken, um zu zeigen, was vor sich ging - Kommunikation zwischen zwei bewussten Köpfen -, weil für mich (und als gelegentlichen C++-Programmierer und Assembler-Programmierer in meiner vergeudeten Jugend - sie keine Magie für mich haben) genau das ist Was ist los. Aber Sie haben auch Recht, dass es nur Verwirrung stiftet; Searles reductio ist eine bessere Veranschaulichung, da es physisch näher an dem aussieht, was ein Computer tut: Es hat eine Bedienungsanleitung.
@Dain: In Bryan Magees Autobiografie schrieb er, dass es, als er anfing, Schopenhauer zu verstehen (oder Heidegger war), so war, als würde er direkt neben ihm stehen und mit ihm sprechen. So etwas wollte ich veranschaulichen.
Es gibt ein sehr tiefgreifendes Problem mit der Behauptung, dass wir Bewusstsein brauchen, um den Symbolen Bedeutung zu geben: Sie setzt voraus, dass Sie eine Art Wissen darüber haben, wie wir dies tun, und dass dies nichts ähnelt, was ein Computer tun könnte.
@Beaudrap: Ich kann dir nicht folgen: Ich denke, man braucht einen bewussten Verstand, um Symbolen eine Bedeutung zu geben, obwohl ich keine Beweise anzubieten habe. Ich denke nicht, dass daraus folgt, dass wir wissen müssen , wie dies geschieht.
@MoziburUllah: Sie stellen die Frage: Sie gehen davon aus, dass kein Computersystem ein Bewusstsein haben kann, und Sie können nicht vernünftigerweise behaupten, dass ein Computer kein Bewusstsein haben kann, ohne ein Modell dafür zu postulieren, wie wir ein Bewusstsein haben können .
@Beaudrap: Es ist eher eine Überzeugung als eine Annahme. Ich weiß, worauf du hinauswillst.
+1 für „John+Box+Guidebook ergeben zusammen ein System, das Chinesisch versteht“. Ich dachte immer, der Fehler im Argument des Chinesischen Raums sei offensichtlich, und ich bin froh, dass er hier wiederholt wird. Und insgesamt eine großartige Antwort.

Obwohl ich glaube, dass Searle sich irrt, glaube ich nicht, dass Sie das Problem gefunden haben. Sie postulieren, dass der Inhalt nicht nur Chinesischkenntnisse in destillierter Form enthält , insbesondere beim Walk-across-the-Room-Beispiel. Aber viele maschinelle Lernalgorithmen nehmen einfach viele Beispiele und können dann ein angemessenes Verhalten erzeugen (in Grenzen natürlich). Sie haben also, wenn sie einmal trainiert sind, keinen Inhalt und nicht einmal von Menschen bereitgestellte Destillationen. Es ist wahr, dass relevante Eigenschaften von beispielsweise Chinesisch in den Eingabedaten enthalten sind; aber es scheint trotzdem überhaupt nicht das zu sein, was wir intuitiv denken, noch ist es der offensichtliche Ich-bin-durch-den-Raum-Lauf-Botschaftsbetrug, den Sie vorschlagen.

(Searle schlug das Gedankenexperiment zu einer Zeit vor, als der Gedanke war, dass logikbasierte KI sehr erfolgreich sein würde, was nicht der Fall war. Das Gedankenexperiment passt nicht ganz zur gegenwärtigen Praxis.)

Ich glaube du hast mich missverstanden. Ich akzeptiere Searles Behauptung. Ich packe gerade seine Reductio aus. Ich suche nicht nach seinem Fehler, wie Sie es ausdrücken. Ich postuliere, dass Verstehen im Bewusstsein stattfindet, und ich wollte es auf direktere Weise zeigen. Und ich glaube nicht, dass Computer, egal wie ausgeklügelt sie bei der Simulation sind, sich des bedeutenden Begriffs des Wortes bewusst sein werden. Die Natur ist subtiler als das. Sie sagen, die gegenwärtige Praxis ist über das Turing-Modell hinausgegangen, das das Searles-Experiment veranschaulicht?
@MoziburUllah - Searles Behauptung besteht aus zwei Teilen: (1) Computer berechnen lediglich und (2) wir sind uns bewusst, was anders ist. Sie haben (1) geändert, indem Sie es so gemacht haben, dass der Computer nicht einmal berechnet , sondern lediglich als Kanal für vollständig formulierte Informationen zwischen bewussten Wesen fungiert. Aber was heutzutage in Frage gestellt wird, ist, dass Computer und Bewusstsein unterschiedlicher Art sind. Um lehrreich zu sein, müssen Sie das Rechnen so nah wie möglich an das Bewusstsein heranführen und zeigen, dass es immer noch unzureichend ist. Wenn Sie einen Vogel beobachten, werden Sie daran zweifeln, dass ein Schwarm aus Vögeln besteht.
@Kerr: aber ich bin mir nicht sicher, es ist möglich, Dinge zu verstecken, indem man sie entlang einer Dimension näher rückt; aber sie sind in einem anderen immer noch genauso weit voneinander entfernt.
@MoziburUllah - In der Tat, aber dann möchten Sie ausschließlich über diese andere Dimension streiten . Searles Argument lautet ungefähr so: Ich kann YouTube-Videos von Katzen auf meinem Computer ansehen. Ich habe eine LCD-Uhr aus den 1990er Jahren, auf der ich keine YouTube-Videos ansehen kann. Es gibt einen Unterschied zwischen meinem Computer und meiner Uhr; Um dies zu sehen, sollten Sie die Uhr auf ein einzelnes LCD-Element reduzieren, das von einem Transistor angesteuert wird, das ein Computer hin und her bewegt und ein- und ausschaltet, um ein Bild aufzubauen. Der Computer erledigt eindeutig die ganze Arbeit, was beweist, dass Computer unterschiedlicher Art sind.

Ist das nicht eher das, was eine E-Mail ist/macht? Unübersetzte Informationen von A nach B transportieren, genau so, wie die Informationen eingegeben wurden? Aber genau das macht Searle mit seiner Analogie aus - der Mann, der kein Chinesisch spricht, aber tatsächlich so handelt (wenn man nur das Ergebnis seiner Handlungen berücksichtigt), weil er ein Buch mit Regeln hat, die ihm sagen, wie es geht. Wenn ich nichts verpasse, fehlen Ihrer Analogie sehr wichtige Prämissen / Annahmen.

Ich sollte hinzufügen, dass ich so ziemlich nichts darüber weiß, wie Computer funktionieren, aber ich habe einige Zeit mit diesem Kapitel verbracht (was bedeutet, dass ich nur über Searles Argument spreche, nicht über Computer im Allgemeinen).

Mich interessiert, wie er an das Buch mit den Anleitungen gekommen ist. Jemand hat es geschrieben, der Chinesisch konnte.
Ich habe Searle nicht gelesen, ich kenne seine Argumentation nur vom Hörensagen (Wikipedia); Ich stehe Searles Schlussfolgerung nicht kritisch gegenüber, aber ich bin expansiver in der Hoffnung, die Schlussfolgerung offensichtlicher zu machen; aber in Wirklichkeit macht es es vielleicht noch verwirrender ...
@MoziburUllah Ja, jemand hat es getan, aber das erlaubt uns nur zu sagen, dass es jemanden gibt, der Chinesisch spricht, es sagt uns nichts über die Fähigkeit des Computers, tatsächlich Chinesisch zu lernen . Die Leute, die dieses Buch geschrieben haben, sind diejenigen, die ein Programm geschrieben haben, das Befehle ausführt.
@Iphegenie: Alles, was ich wirklich tue, ist, diese Bedienungsanleitung durch die Person zu ersetzen, die sie geschrieben hat. Persönlich stimme ich Searles Schlussfolgerung zu. Aber simuliertes Lernen/Verstehen kann gut genug sein.
@MoziburUllah Sie vereinfachen den Fokus auf die Nachahmung des Wissens zu stark, indem Sie Befehle ausführen. Ja, von A nach B laufen, das kann ein Computer. Chinesisch sprechen zu lernen, kann er nicht, weil das Erlernen einer Sprache mehr ist, als nach einem Drehbuch zu handeln, und das ist alles, was Searle sagt.

Woher kommt dieses Anleitungsbuch?

eine Hypothese

Vor der offiziellen Eröffnung des Great Chinese Room hatte John ein anderes Buch und einen großen Stapel Fragen und Antworten aus dem wirklichen Leben auf Chinesisch – das Complete Chinese Corpus . Dieses andere Buch lehrte John, wie er – unter Verwendung des Fragenstapels als Übungssatz – das Buch schreibt, das er derzeit verwendet, um den Raum so aussehen zu lassen, als würde er mit Mai sprechen. Die Person, die das erste Buch geschrieben hat, konnte auch kein Chinesisch, die Chinesischkenntnisse im Raum sind aus einer umfassenden Analyse des realen Sprachgebrauchs hervorgegangen.

eine Variation mit Lao

Ein ähnlicher Trick, aber mit Ihrem versteckten chinesischen Sprecher - Lao. Genau wie zuvor hat John eine Meta-Anleitung, wie man den Raum dazu bringt, Chinesisch zu verstehen, aber einige der Regeln in der Anleitung führen dazu, dass John mit Lao interagiert. Diese Interaktionen sind nicht so einfach wie das Weiterreichen von Tabletten von und zu Mai, nein, John muss akribisch Aufzeichnungen über alles, was hereinkommt, und alle Antworten, die Lao macht, führen und einige geheimnisvolle Manipulationen der Aufzeichnungen vornehmen (tatsächlich - Aufbau des unvollständigen chinesischen Korpuswie er geht). Zu diesen Manipulationen gehört die Vorhersage, was Lao sagen würde, das Vertrauen des Computerraums, dass die Vorhersage korrekt ist, und die Bewertung der Vorhersagen basierend auf der tatsächlichen Antwort. Schließlich, wenn Room's Selbstvertrauen höher als ein Schwellenwert ist, wird Lao für ein oder zwei Transaktionen aus der Schleife herausgeschnitten, und seine Beteiligung an dem Projekt schrumpft allmählich auf ein absolutes Minimum, nur um ab und zu die Qualität zu kontrollieren.

Ich habe den Eindruck, dass Sie diese Antwort zu Plato zurückführt, der behauptet, dass das ideale „wirkliche Ding“ seinen „Schatten“ in die „Welt“ (dh in das Lehrbuch) wirft. Aber dann ist das „echte Ding“ irgendwie auch für den Sinn und das Verständnis verantwortlich, das durch die Benutzung des Gebrauchshandbuchs entsteht. Lustigerweise gab es bei allen Beispielen in der Anfangsarbeit zum PAC-Lernen (implizit) so ein ideales „echtes Ding“. Ich denke jedoch, dass der Autor dies getan hat, um einige nette Theoreme zu beweisen, nicht weil es notwendig gewesen wäre.
Der einzige Teil des Schemas, der auch nur annähernd „ideal“ ist, sind „die Chinesischkenntnisse“. Der Rest ist real (nicht im platonischen, sondern im physikalischen, materiellen Sinn): der Raum, John sitzt im Raum, ein Anleitungsbuch, das John geschrieben hat, ein Anleitungsbuch, dem John gefolgt ist, um ein Anleitungsbuch zu schreiben, ein Stapel von Beispielen etc. Die "Chinesischkenntnisse" scheinen weniger greifbar, aber letztendlich ist es nur das Anleitungsbuch + der Zustand der Schränke mit chinesischen Tablets.
@artm: 'Die Person, die das erste Buch schrieb, konnte kein Chinesisch ' gibt John immer noch eine Anleitungsbroschüre, aber diesmal zum Sprachenlernen: Er hat genug menschliche Sprachen verstanden und untersucht , um eine (angebliche) allgemeine Theorie der Sprache abzuleiten Erwerb & Manipulation. Es verschiebt Searles Argument nur einen Schritt weiter nach unten. Ich sehe keinen signifikanten Unterschied. Argumentieren Sie für Searles Position oder dagegen (Verstehen ist nicht Syntax/Mechanismus)? Ich rede nicht von seiner Illustration.
Ich versuche nicht, entweder für oder gegen Searles Position zu argumentieren, sondern versuche mir nur vorzustellen, woher das Buch stammen könnte, basierend darauf, wie ähnliche Softwareprobleme heutzutage oft gelöst werden (zu Rex Kerrs Antwort). Die ursprüngliche Formulierung basiert auf dem CS-Stand der Zeit, meine Variationen sind eher verwandt mit dem, was sie heute im maschinellen Lernen lehren. Ob der Raum in der einen oder anderen Hinsicht „chinesisch versteht“, ist noch offen, und mein chinesisches Zimmer sollte all der traditionellen Kritik an der klassischen Variante ausgesetzt sein.

Ich habe einmal einen Physiker getroffen, der die starke KI-Position innehatte. Ich war 16, hatte diese Position noch nie erlebt, und sie kam mir völlig absurd vor. Auch wenn ich nicht mehr davon überzeugt bin, dass diese Position völlig absurd ist, verstehe ich immer noch nicht, warum alle versuchen, John Searle zu widerlegen. Mein Gefühl ist, dass der Aufbau von John Searles Gedankenexperiment sinnvoll in den Kontext moderner Computer übersetzt werden kann:

Ein moderner Computer bietet eine gewisse Speichermenge, genauer gesagt eine Speicherhierarchie mit zunehmender Größe, aber abnehmender Zugriffsgeschwindigkeit. Es bietet auch eine gewisse Verarbeitungsleistung, genauer gesagt ein Cluster paralleler Verarbeitungseinheiten mit zunehmender Anzahl, aber abnehmender Verbindungsgeschwindigkeit. Diese grundlegende Architektur ist normalerweise unabhängig von den Programmen und Eingabedaten, die verwendet werden, um nützliche Ergebnisse mit den von diesem Computer bereitgestellten Ressourcen zu erzeugen.

In Searles chinesischem Raum-Gedankenexperiment wird angenommen, dass John die Rolle dieses Computers übernimmt und den Speicher und die Rechenleistung für die Berechnung bereitstellt. Eigentlich wird angenommen, dass er nur das schnellste Gedächtnis liefert, während das wirklich riesige, aber langsame Gedächtnis John in Form von Papier und Stift und dem "magischen" Buch extern ist. Aber selbst wenn John die Rolle des "gesamten" Bandes einer Turing-Maschine übernehmen würde, warum sollten wir dann erwarten, dass er (oder das Band) die Probleminstanz versteht, an der die Turing-Maschine gerade arbeitet? Nun, ein Grund dafür ist, dass für eine universelle Turing-Maschine auch das Programm selbst auf das Band geschrieben wurde, sodass das Band im Laufe der Zeit Zugriff auf alle relevanten Informationen hatte (außer der Bedeutung und Interpretation seiner endgültigen Ausgabe, aber ich bezweifle, dass dies der Fall ist ist hier wichtig).

Meine Frage ist: Woher kommt dieses Anleitungsbuch? Wir sind uns alle bewusst, dass Menschen den Code schreiben, der einen Computer antreibt, oder Code schreiben, der mehr Code schreibt, um einen Computer anzutreiben (z. B. einen Compiler) usw.

Bei der obigen Übersetzung in den Kontext moderner Computer ist das Bedienungshandbuch Teil des Inputs. Das könnte ein wichtiger Punkt sein, denn oberflächlich sieht es so aus, als ob der einzige Input von Mai kommt, der die Fragen auf Chinesisch einreicht.

Woher kommt also der Input? Ich vermute, dass der Input aus der aktuellen und vergangenen Umgebung stammt. Wir können jedoch nicht weit genug in die Vergangenheit blicken, um zu erfahren, woher die „Initialsaat“ stammt. Und außerdem haben wir die Evolutionstheorie, die darauf hindeutet, dass der "ursprüngliche Samen" weniger wichtig gewesen sein könnte, als es scheint. Was mich zu einer anderen Position bringt, die mir völlig absurd erschien, als ich ihr zum ersten Mal begegnete. Jemand schlug mir vor, dass diese Welt von Außerirdischen erschaffen worden sein könnte. Ich fand das lächerlich, weil es die Frage aufwirft, wer die Außerirdischen überhaupt erschaffen hat. Nachdem ich mir jedoch einen Clip angesehen habe , in dem Richard Dawkins diese Möglichkeit ernsthaft in Betracht gezogen hat, muss ich zugeben, dass dies tatsächlich eine konsistente Position sein könnte.


Auch wenn es nicht direkt mit der Frage zusammenhängt, was ist meine eigene Vermutung, wie Verständnis und Bedeutung bei komplizierten Berechnungen entstehen können? Es könnte mit der Struktur von Raum und Zeit zusammenhängen, wo die Kommunikation von Informationen zwischen verschiedenen Punkten während einer Berechnung notwendig ist (weil die Menge an Informationen, die in der Nähe eines bestimmten Punktes gespeichert ist, endlich ist) und eine bestimmte endliche Zeit in Anspruch nimmt. Die Folge ist, dass komprimierte Nachrichten mit mehr oder weniger klarer Bedeutung im Kontext der Berechnung im Laufe einer Berechnung ausgetauscht und verstanden (und manchmal für spätere Bezugnahmen gespeichert) werden. (Und da die Berechnung, die unser Universum mit seiner Raum- und Zeitstruktur durchzuführen scheint, wahrscheinlich nicht so bald enden wird, brauchen Sie sich keine Gedanken über die Bedeutung und Interpretation ihrer endgültigen Ausgabe zu machen.)

Ich versuche nicht, Searle zu widerlegen . Vielleicht, weil jeder dies tut, wird es als selbstverständlich angesehen, dass ich das versuche! Ich freue mich, dass Sie bemerkt haben, dass die Frage nach der Herkunft der Bedienungsanleitung eine wichtige Frage ist. Im Zusammenhang mit Computern können wir dies immer nachvollziehen; und in diesem Zusammenhang können wir sagen, dass es in einem wichtigen Sinne Teil des Inputs ist. Beim Menschen bin ich mir da nicht so sicher. Natürlich ist die Evolution ein Teil der Antwort. Dies bringt uns zu einem Rätsel über das Universum: Was hat die Gesetze des Universums „erschaffen“, die die Evolution ermöglicht haben?
Ich habe über Lee Smolins Spekulationen darüber gelesen, aber meiner Meinung nach schiebt es das Problem nur eine Stufe weiter nach hinten. Zu sagen, dass sie mir gegeben sind oder so wie sie sind, ist nicht anders, als die ersten Völker, die den Lauf der Sonne und die Sterne am Himmel betrachteten, sagten, dass es so ist. Und es galten keine tieferen Prinzipien, oder wenn doch, könnten wir sie nicht kennen. Erst über vier Jahrtausende später wurde dieses Prinzip gefunden (datiert aus der sumerischen Astronomie).

Wenn wir Tiere betrachten, sind Menschen intelligent, Menschenaffen, Schweine, Hunde, Pferde sind intelligent, Hühner möglicherweise. Ob Fliegen oder Ameisen intelligent sind, ist sehr umstritten, und ein Bakterium oder Virus auf keinen Fall (meiner bescheidenen Meinung nach).

Searles Argument legt nahe, dass ein menschlicher, muskelbetriebener "Computer" in der Lage sein könnte, ein intelligentes Gespräch auf Chinesisch zu simulieren, und wir stimmen sicherlich alle darin überein, dass Searles Zimmer auf keinen Fall intelligent sein könnte. Wir sind uns sicherlich auch alle einig, dass Searles Zimmer auf keinen Fall eine intelligente Unterhaltung auf Chinesisch simulieren könnte! Es ist einfach kein ausreichend fortschrittliches Gerät für überhaupt eine Möglichkeit.

Daraus sollen wir schließen, dass ein hochentwickelter Computer den chinesischen Text unmöglich „verstehen“ kann. Das ist so, als würde man sagen, weil das Bakterium Chinesisch nicht verstehen kann, kann es ein Mensch nicht. Dies ist keine vernünftige Schlussfolgerung.

Ein moderner Computer könnte das, was Searles Zimmer tut, etwa 10 Milliarden Mal schneller erledigen, wobei die Tatsache ignoriert wird, dass der Mann in Searles Zimmer nicht bereit sein wird, mehr als 1/3 der Zeit zu arbeiten, was bedeutet, dass eine Antwort, die ein moderner Computer könnte eine Sekunde nachzugeben, würde Searles Zimmer tausend Jahre in Anspruch nehmen. Wir sind derzeit nicht in der Lage, ein Regelwerk zu erstellen, das die chinesische Konversation ermöglichen würde. Bis wir es schaffen können, werden Computer tausendmal schneller sein.

Wäre irgendjemand davon überzeugt, dass Searles Zimmer, das nicht nur ein Zimmer, sondern das Innere eines riesigen Wolkenkratzers ist, der seit einer Million Jahren in Betrieb ist, nicht etwas leisten kann, was dem menschlichen "Verstehen" entspricht?

*Wäre irgendjemand davon überzeugt, dass Searles Raum, der nicht nur ein Raum, sondern das Innere eines riesigen Wolkenkratzers ist, der seit einer Million Jahren in Betrieb ist, nicht etwas leisten kann, was dem menschlichen "Verstehen" entspricht?" -- Sagen, dass ein Programm ausgeführt wurde lange Zeit auf einem großen, leistungsfähigen Computer hilft da nichts, da es durch Substratunabhängigkeit oder mehrfache Realisierbarkeit egal ist, wie schnell eine Berechnung läuft, eine Turing-Maschine, die auf einem Supercomputer oder auf einer langen Papierrolle läuft, macht überhaupt keinen Unterschied in Bezug auf das, was es tun kann.
Ich finde das keine sehr überzeugende Interpretation von Searle, weil es Searles Argument völlig zu verfehlen scheint. Der primäre analoge Punkt ist, dass das Ausspucken der Antwort auf der Grundlage einer Nachschlagetabelle überhaupt nicht das zu sein scheint, was "Verstehen" ist, selbst wenn es die richtige Antwort gibt. Solange dies die Hauptoperation (oder zumindest die einzige) ist, die der Computer verwendet, um Chinesisch zu sprechen, spricht er es nicht wirklich. Ihre Antwort scheint zu sein: "Aber was wäre, wenn der Computer beim Nachschlagen von Dingen einfach leistungsfähiger wäre als diejenigen, an die wir gewöhnt sind?"