Kann der Geist-Körper-Funktionalismus wahr sein, während die allgemeine künstliche Intelligenz immer noch unmöglich ist?

In diesem Vortrag sagt Hilary Putnam Folgendes:

  • Geist-Körper-Funktionalismus ist wahr. Tatsächlich ist es nicht nur wahr, sondern macht ontologische Fragen der Philosophie des Geistes größtenteils irrelevant.
  • Die Gesetze der Physik bedeuten, dass menschliche Gehirne / Gedanken von Turing-Maschinen mit beliebiger Genauigkeit simuliert werden können.

Und doch sagt er auch, das ist seine Meinung:

  • KI ist unmöglich, da KI-Programme immer problemspezifisch sind und nicht in der Lage sind, allgemeine Probleme zu lösen oder außerhalb des Kontexts ihres ursprünglichen Designs zu denken, während Menschen in der Lage sind, Probleme zu lösen, die nichts mit der ursprünglichen Evolution zu tun haben Zwecke, die ihr Verstand lösen sollte.

Widerspricht er sich in diesem Vortrag nicht?

Wenn der Geist-Körper-Funktionalismus gilt und Turing-Maschinen den menschlichen Geist mit beliebiger Präzision simulieren können, dann folgt aus diesen beiden Tatsachen direkt, dass ein Computer im Prinzip alles tun kann, was ein menschlicher Geist tun kann, unabhängig vom aktuellen Stand der KI-Programmierung.

Was vermisse ich? Wie lassen sich Putnams Aussagen ("Funktionalismus + Turing-Reduzierbarkeit des Geistes" und "Allgemeine KI ist unmöglich") in Einklang bringen?

Gibt es etwas, das nichts mit den ursprünglichen evolutionären Zwecken zu tun hat, für deren Lösung unser Verstand „gestaltet“ wurde? Was könnte das sein? Was hat objektiv nichts damit zu tun, im Wettbewerb mit anderen Geistern von gleicher Qualität wie dem eigenen zu überleben? Sobald Strategie und Physik beide Teil des Lebens sind, haben Sie Technologie. An diesem Punkt ist jede einzelne Frage überlebenswichtig.

Antworten (2)

Zur Verteidigung Putnams gegen den Vorwurf, sich selbst zu widersprechen, könnte man sagen, dass er dies vermeiden wollte, indem er zwischen psychologischen Zuständen und Turing-Zuständen nach folgenden Merkmalen unterschied:

  • Im Gegensatz zu psychologischen Zuständen sind Turing-Zustände unabhängig von Lernen und Gedächtnis.
  • Zusammen mit Lernen und Gedächtnis sind Turing-Zustände deterministisch in Bezug auf nachfolgende Zustände.

Zu diesen Unterschieden macht er folgendes geltend:

"Diese Eigenschaften belegen, dass kein psychologischer Zustand im üblichen Sinne ein Turing-Maschinenzustand sein kann."

Was wie ein Widerspruch erscheinen mag, kann darüber hinaus ein Hinweis auf seine Zweifel sein, ob unsere derzeitige Herangehensweise an künstliche Intelligenz jemals ausreichend sein kann, um das Seelenleben des Menschen zu erklären. Bis zu einem gewissen Grad haben wir vielleicht alle unausgeglichene Widersprüchlichkeiten in unserem Denken, mit denen wir hoffen, dass sie sich schließlich lösen werden. Putnam drückt eine solche Hoffnung aus, indem er darauf hinweist, dass unser derzeitiger Ansatz zum Funktionalismus Computer wahrscheinlich nicht mit den Mitteln ausstatten wird, um die Arten von Problemen zu lösen, die Menschen lösen können:

"Der Begriff der funktionalen Organisation wurde uns durch Systeme mit einer sehr eingeschränkten, sehr spezifischen funktionalen Organisation klar. Daher ist die Versuchung groß anzunehmen, dass wir diese eingeschränkte und spezifische Art der funktionalen Organisation haben müssen."

An anderer Stelle sagt er:

"Wir haben keinen ernsthaften Grund zu der Annahme, dass allgemeine Intelligenz einfach die Anhäufung einer großen Anzahl von Programmen ist, die solch restriktive Lösungsaussagen haben."

Trotzdem glaube ich, dass die Probleme, die die Ursache seiner Zweifel sind, über unsere Herangehensweise an den Funktionalismus hinausgehen. Das heißt, dass keine neue Herangehensweise an den Funktionalismus die Probleme, die in seinen Argumenten offensichtlich sind, angemessen angehen kann. Zunächst mag es hilfreich sein, sich an Putnams Definition des funktionalen Isomorphismus zu erinnern:

"Zwei Systeme sind funktional isomorph, wenn es eine Entsprechung zwischen den Zuständen des einen und den Zuständen des anderen gibt, die funktionale Beziehungen bewahrt."

Angeblich sollte dieser Begriff der Isomorphie dazu dienen, die Gründe zu verdeutlichen, warum er glaubt, dass ontologische Überlegungen für die Frage irrelevant sind. Putnam selbst bringt jedoch einen Punkt zur Sprache, der sich als eine der größten Bedrohungen für seine Theorie erweisen könnte, nämlich dass die diskrete Struktur der Materie die Möglichkeit einer echten Kontinuität in Frage stellt. Er beginnt seine Antwort wie folgt:

„Ein [Problem bei diesem Argument] ist, dass es sogar in der Quantenmechanik Kontinuitäten gibt, ebenso wie Diskontinuitäten.“

Diese erste Antwort ist ziemlich trivial, da nicht alle Kontinuitäten für die anstehenden Aufgaben geeignet sind. Einem Magnetfeld zum Beispiel fehlt höchstwahrscheinlich die notwendige Artikulation, die erforderlich wäre, um als Informationsmedium zu dienen. Putnams zweites Argument ist interessanter:

„Das andere Problem ist, dass, wenn das ein gutes Argument wäre, es ein Argument gegen die Verwendbarkeit des Modells der Luft als kontinuierliche Flüssigkeit wäre, die das Modell ist, nach dem Flugzeugflügel konstruiert sind, zumindest wenn sie anfliegen sollen alles andere als Überschallgeschwindigkeit."

Dieses Argument ist eigentlich trügerisch, weil niemand argumentiert, dass alle diskreten Substanzen für alle Zwecke ungeeignet sind. Daher muss Putnam es übergeneralisieren, um zu der von ihm gewünschten Schlussfolgerung zu gelangen, dh er muss eine falsche Induktion von einem Besonderen zu einem Universellen machen. Trotzdem ist die Frage, auf die er uns aufmerksam macht, eine Überlegung wert. Er betont, dass die Diskontinuität eines Systems irrelevant ist, wenn es sich der Kontinuität annähert. Wir könnten das wie folgt formalisieren:

  • Fxy = x und y sind zueinander funktional isomorph
  • Rxyz = x ist funktional verwandt mit y im System z
  • Cx = x ist stetig
  • Dxy = x nähert sich der Stetigkeit von y, ist aber unstetig

    1. ∀x[∀y[Fxy ↔ ∀t[∀v[Rtvx ↔ Rtvy]]]]
    2. ∀x[∀y[(Cx & Dyx) → Fxy]]

Das läuft im Wesentlichen darauf hinaus zu sagen, dass, wenn sich ein diskontinuierliches System der Kontinuität eines entsprechenden Systems nähert, sie funktional isomorph sind; und als solche sollten alle ihre funktionalen Beziehungen funktional gesund sein.

Um diese Behauptung zu widerlegen, bedarf es nun lediglich eines Gegenbeispiels. Das erste, was mir in den Sinn kam, war eine Kindheitserinnerung meiner Mutter, die eine Weihnachtslichterkette auf eine durchgebrannte Glühbirne überprüfte. Wenn einer ausbrennt, sind alle aus. Die Diskontinuität der Kette nähert sich der Kontinuität einer Kette mit allen guten Glühbirnen. Darüber hinaus weisen die beiden Saiten unterschiedliche funktionelle Eigenschaften auf; nämlich einer leuchtet und der andere nicht: Rpbc & ~Rpbd (p = eingesteckt; b = blinkend; c = fortlaufende Zeichenkette; d = diskontinuierlich). Daraus lässt sich leicht beweisen, dass es einige Systeme gibt, deren Diskontinuität sich einem kontinuierlichen System annähert, und dennoch funktional nicht isomorph sind:

  1. Ǝx[Ǝy[Cx & Dxy & ~Fxy)]]

Ein wichtiger Unterschied zwischen meinem Gegenbeispiel und Putnams Flugzeugbeispiel besteht darin, dass meines enger mit der Idee der Kommunikation verwandt ist, was es relevanter für die Art von Funktionalität macht, die für Informationssysteme erforderlich ist. Wie bei einer Weihnachtslichterkette ist es oft so, dass eine einzige Unterbrechung in einer Kommunikationslinie diese unbrauchbar machen kann.

Darüber hinaus mag die Unterscheidung zwischen diskreten Systemen und kontinuierlichen Systemen auch der Schlüssel dafür sein, warum Computern jeglicher semantischer Gehalt fehlt. Wenn Sie darüber nachdenken, sind Inhalte für einen Computer nichts anderes als Skalarwerte, und selbst dann sind es nur Skalarwerte, die den Wert 1 nicht überschreiten. Jedes Bit in einem Computer ist epistemisch vom Rest des Computers isoliert System, weil sie nach einer kausalen Kette von Ereignissen funktionieren. Es ist ein einseitiger Kommunikationsfluss, bei dem jede Information von dem, was ihr vorausgegangen ist, getrennt wird. Computern fehlen einfach die physikalischen Voraussetzungen, um die Art von Einheit zu schaffen, die für das geistige Leben charakteristisch ist.

Sagt, dass:

[allgemein] KI ist unmöglich, da KI-Programme immer problemspezifisch sind und nicht zur allgemeinen Problemlösung fähig sind

Es ist kein wirklicher Widerspruch zu der Behauptung, dass ein TM im Prinzip einen Menschen simulieren kann.

Mit „KI-Programmen“ bezeichnet Putnam Programme, die wir in der Praxis erstellen. Mit einem TM, das einen Menschen simuliert, wird Putnam auf ein Programm verwiesen, das im Prinzip existiert.

Das sind eindeutig verschiedene Dinge.

Es ist im Prinzip möglich, die Darstellung von Pi mit 10^1000000 Stellen zu berechnen, aber es ist für Menschen praktisch unmöglich, sie zu berechnen.