Ich las einen Artikel von J Mark Bishop „Die Gefahr der künstlichen Dummheit“ auf ScientaSalon, wo er unter anderem seine eigene Forschung, John Searle und Hilary Putnam, als Beweis für die Unmöglichkeit einer starken KI zitiert. Ich hatte immer das Gefühl, dass starke KI-Leugner geheime Substanz-Dualisten sind. Menschen, die an Seelen glaubten, aber aus Angst, lächerlich gemacht zu werden, nicht bereit waren, ihre religiösen/metaphysischen Überzeugungen offen zu legen. Stattdessen kommen sie mit allen möglichen pragmatischen Argumenten gegen starke KI wie Qualia oder mangelnde Einsicht von Computern, die nicht wirklich greifen.
Meine Argumentation dafür, warum die Leugnung der Möglichkeit einer starken KI einen Substanzdualismus impliziert, ist die folgende:
Jedes endlich große physikalische Phänomen kann mit ausreichenden technologischen Mitteln und einem ausreichenden Verständnis der zugrunde liegenden physikalischen Prozesse reproduziert werden.
Die Möglichkeit einer starken KI zu leugnen bedeutet, dass wir, egal wie fortschrittlich unsere Technologie und wie umfassend unser Wissen über Neurowissenschaften und Psychologie werden wird, niemals in der Lage sein werden, die Funktionalität des menschlichen Geistes zu reproduzieren.
Zu 1) Der einzige Grund, warum wir die Funktionalität des Geistes nicht reproduzieren könnten, ist, wenn es etwas Nicht-Physisches an der Funktionsweise des Geistes gibt.
Zu sagen, dass es etwas Nicht-Physisches daran gibt, wie der Geist funktioniert, ist dasselbe wie Substanz-Dualismus.
Meine Frage ist folgende: Ist es tatsächlich so, dass die Leugnung der Möglichkeit einer starken KI einen Substanzdualismus impliziert?
Ich denke, dass Menschen, die behaupten, eine starke KI sei unmöglich, dazu neigen (oft unwissentlich), sich einer Art Dualismus zu verschreiben. Aber es gibt ein Argument dafür, dass der Prozess unergründlich ist:
Wir haben keine allgemeine Theorie zur Annäherung willkürlicher rekurrenter Funktionen. Tatsächlich gibt es alle Arten von wiederkehrenden Funktionen mit zutiefst frustrierenden Prozessen wie chaotische Funktionen, bei denen langfristige Werte nicht ohne unendlich genaue Messungen aktueller Zustände vorhergesagt werden können, selbst wenn Sie die Form der Funktion kennen .
Außerdem ist unser Gehirn stark aktivitätsabhängig (synaptische Plastizität, Adaption etc. etc.). Daher könnte es plausibel einen Unterschied für den qualitativen Betrieb des Systems machen, was das langfristige chaotische Verhalten ist. (Es ist nicht garantiert, dass dies der Fall sein wird, aber es könnte sein .)
Daher ist es zumindest einigermaßen plausibel, dass sich unser Gehirn zwar in einem nominell berechenbaren Universum befindet, es in der Praxis jedoch keine Möglichkeit gibt, die Berechnung zu finden, die durchgeführt werden muss. Auf jeder reduzierten Ebene stoßen Sie auf exponentiell schwierige Probleme (Computerchemie ist zu schwierig, Proteinfaltung ist zu schwierig usw.), und auf der höchsten Abstraktionsebene gibt es keine Möglichkeit, den Algorithmus zu entdecken oder zu verifizieren (und der algorithmische Raum ist enorm ; Sie können die Suche nicht brutal erzwingen).
Dies würde es uns dennoch ermöglichen, die gesamte Aktivität des Gehirns einer Person zu überwachen und wiederzugeben (angesichts der fast unvorstellbaren Heldentaten der Instrumentierung und Gentechnik), aber das ist keine starke KI. (Es ist sehr seltsam, besonders aus philosophischer Sicht: Hier haben Sie stattdessen ein Bewusstsein über die Zeit, das als Muster im Raum angeordnet ist.)
Persönlich halte ich diese Art von Unergründlichkeit nicht für sehr wahrscheinlich, aber die Gründe dafür sind eher eine vage Ahnung von der Evolvierbarkeit von Systemen, die sich auf Details des chaotischen Verhaltens von selbstrekurrenten Systemen verlassen, als alles, was wirklich vernünftig ist.
Mir fallen da ein paar Alternativen ein:
Es gibt auch das Betrugsargument, zu behaupten, dass "starke KI" nicht ausreichend definiert ist, um es uns zu ermöglichen, es zu erreichen, aber ich glaube nicht, dass Sie danach suchen.
Um Cort Amons Antwort zu vervollständigen, würde ich sagen, dass es einen Unterschied zwischen der Reproduktion physikalischer Phänomene und deren Berechnung gibt.
Selbst wenn alle physikalischen Systeme mit physikalischem Material reproduziert werden können (sagen wir, Sie reproduzieren die Struktur einer lebenden Zelle aus ähnlichen molekularen Komponenten), bedeutet das nicht, dass Sie sie berechnen können. Sie erstellen nur physische Kopien von physischen Systemen. Stellen Sie sich vor, dass die einzige Möglichkeit, das Bewusstsein zu reproduzieren, darin besteht, ein physisches Gehirn zu schaffen, das aus ähnlichen organischen Komponenten (Neuronen, ...) besteht, anstatt eine Software auf einer Turing-Maschine zu implementieren. Dann wäre eine starke KI unmöglich: Computer bestehen aus Transistoren, nicht aus Neuronen, und Sie werden niemals dasselbe Ergebnis auf einem Siliziumcomputer oder einer Turing-Maschine erhalten, obwohl Dualismus falsch ist.
Beachten Sie, dass die zeitgenössische Physik nicht berechenbar ist oder nur starke Annäherungen verwendet (und selbst dann erhalten Sie nur Wahrscheinlichkeiten). Beachten Sie auch, dass das Klonen eines physischen Systems physikalisch unmöglich ist (vgl. das No-Cloning-Theorem), sodass sogar die Reproduktion unmöglich sein könnte ...
Bearbeiten: Hier sind einige Gründe, warum die zeitgenössische Physik nicht berechenbar ist:
Heutige Physiker können die Struktur komplexer Moleküle (bis zu einigen Atomen) nicht einmal mit enormen Rechenkapazitäten berechnen: Sie verlangen dies von Chemikern.
Zusammenfassend lautet die Vermutung heute, dass die ultimative Physik berechenbar sein wird, und es ist eine unwahrscheinliche Vermutung. Tatsächliche Physik ist aus vielen grundlegenden Gründen nicht berechenbar.
Man könnte argumentieren, dass es nicht notwendig ist, alle physikalischen Informationen zu haben: Das Substrat spielt keine Rolle, nur die "Software" (die höhere Ebene) ist wichtig ... Aber das ist eine Frage. Warum sollte das Substrat für das Bewusstsein keine Rolle spielen? Nur wenn eine starke KI ein Erfolg wird, wissen wir, dass dies der Fall ist.
Es gibt andere Alternativen; zum Beispiel:
Spinozas System, das mentale und physische Phänomene als Modi einer absolut selbstbestehenden einfachen Substanz umfasst.
ln Leibniz ' Monadologie ; es gibt viele Arten von Monaden; eine Seele ist eine Monade, ebenso wie Gott; sie interagieren nicht; jedes spiegelt in sich alle anderen wider; und unabhängig harmonisiert.
In Epikurs System sind alles Atome; und die Seele besteht aus Seelenatomen; als solche können sie materielle Atome beeinflussen.
Bei Hegel; die Welt ist der Fortgang des Weltgeistes aus Nichtsein und Sein; die in gewissem Sinne gleich sind; so ist der Mensch ein Ausdruck des Geistes.
Kant identifiziert eine noumenale Welt hinter der phänomenalen Welt; man könnte diese unaussprechliche und unbeschreibliche Dimension nehmen, wo mentale und physische Phänomene „eins“ sind; obwohl er darüber schweigt, wie die noumenale Welt die phänomenale Welt verursacht .
Schopenhauer identifiziert die Noumena eines unpersönlichen Willens; und es ist die Kraft dieses Willens, die die phänomenale Welt verursacht .
Ich wage zu vermuten, dass es die Mischung aus griechischer und christlicher Philosophie war, die die absolute Substanz als Gott identifizierte; und obwohl Descartes üblicherweise als Urheber der Doppelsubstanzthese gezählt wird; tatsächlich ist er es nicht, da er ein zu vorsichtiger und vorsichtiger Denker ist; man nimmt an, dass es das Ergebnis späterer Überlegungen von Descartianern war – aber diese Entfernung des metaphysischen Gerüsts ließ diese in der Leere hängen und per Definition nicht in der Lage sein, miteinander zu interagieren; da Substanzen kausal geschlossen sind.
Ich denke, die Fähigkeit, das „Starke“ in „starker KI“ klar zu definieren, ist gleichbedeutend mit Dualismus.
Wenn Sie nicht glauben, dass es einen unergründlichen Aspekt des menschlichen Geistes gibt, dann ist jede KI kontinuierlich mit dem Verhalten junger oder beeinträchtigter Menschen, und es gibt keinen magischen Punkt, an dem sie zu einer „starken KI“ wird, die dem Menschen entspricht. In einigen Aspekten ist es bereits überlegen, in anderen könnte es bei ausreichender Kraft oder Zeit kompensieren.
Wenn Sie die genetische Rekombination als eine Form der Berechnung betrachten, hat sie die Kraft, menschliche Intelligenz zu schaffen, nachdem sie dies getan hat. In einer anderen Umgebung könnte es eine andere Form erzeugen. Wir sehen auch, dass es Probleme löst, die wir nicht lösen können, und wir müssen seine Lösungen einfach stehlen, bis wir sie verstehen. Das ist also ein ebenso starkes oder besseres Problemlösungssystem als die menschliche Intelligenz. Ist es „künstlich“ genug? Es scheint digital zu sein, und wir halten es für ziemlich mechanisch – die Art von Dingen, die wir in Maschinen emulieren können.
Wenn Sie glauben, dass es diesen unergründlichen Aspekt gibt, können Sie nur dann wirklich eine Definition von „starker KI“ mit einer Bedeutung angeben, die sie wirklich von „einer ganzen Menge schwacher KI“ unterscheidet.
Die Frage ist also unbegründet oder zirkulär. Wenn Sie eine funktionale (performative, Turing-artige) Definition von starker KI akzeptieren, tun Sie dies nur, weil Sie kein Dualist sind, und wenn Sie sich widersetzen, tun Sie dies nur, weil Sie einer sind.
Es gibt zwei Gründe, warum es unmöglich sein könnte, eine künstliche Intelligenz mit einem Verstand zu schaffen, der dem eines Menschen gleich oder besser ist: Ein Grund könnte sein, dass die Bausteine des Gehirns Siliziumchips oder irgendetwas anderem überlegen sind Menschen als Substrat für Intelligenz erschaffen könnten. Der andere Grund könnte sein, dass die Schaffung künstlicher Intelligenz einfach sehr schwierig ist und menschliche Wissenschaftler und Softwareentwickler nicht klug genug sind, dies zu tun.
Substanzdualismus wäre eine Unterkategorie des ersten Grundes. Aber man könnte argumentieren, dass das Gehirn etwa 10 bis 11 Power-Neuronen hat, von denen jedes durchschnittlich 7.000 Verbindungen hat, und das ist nur eine große Zahl, die die aktuelle Computerhardware übertrifft. (Andererseits läuft die Computerhardware viel schneller als die Hardware des menschlichen Gehirns). Es ist ein Argument dafür, dass eine menschenwürdige KI heute nicht möglich ist, aber nicht für die Unmöglichkeit in der Zukunft. Substanzdualismus wäre ein Argument für „im Prinzip unmöglich“.
Das andere Argument, dass die Erstellung einer KI einfach sehr schwierig sei, spricht ebenfalls nicht für „im Prinzip unmöglich“. Es könnte sein, dass die Schaffung eines Computers, der 18 Jahre lang wie ein Mensch lernt, erforderlich ist, um eine KI zu entwickeln. Das würde "nicht unmöglich" bedeuten. (Beachten Sie, dass ein solcher Computer, nachdem er 18 Jahre lang gelernt hatte, im Gegensatz zu Menschen leicht dupliziert werden konnte).
Wenn es also Behauptungen gibt, dass KI im Prinzip nicht möglich ist, dann wäre es ein Argument für eine solche Behauptung, dem menschlichen Gehirn eine mysteriöse Eigenschaft zuzuschreiben, die Menschen nicht reproduzieren können.
Nur eine Anmerkung: Es ist bekannt, dass es bestimmte mathematische Probleme gibt, die Computer nicht lösen können. Aber Menschen können sie auch nicht lösen. Menschen können sich dafür entscheiden, solche Probleme zu ignorieren. Eine künstliche Intelligenz müsste zwangsläufig auch solche Probleme ignorieren können.
Bei deinen Punkten 1 bis 4 musst du etwas vorsichtiger sein. Sicher, wir könnten wahrscheinlich etwas künstlich herstellen, das ein menschliches denkendes Gehirn modelliert, indem wir biologisches Gewebe durch etwas anderes ersetzen. Ich bezweifle, dass irgendein Wissenschaftler diese Möglichkeit bestreiten würde. Aber das ist wahrscheinlich nicht das, was Sie oder irgendjemand wirklich unter harter KI versteht. Wir wollen wirklich ein Rechenmodell der Intelligenz, eine Turing-Maschine, auf der ein sehr kompliziertes Programm läuft. Es ist schwierig, die Möglichkeit davon zu "widerlegen", aber es gibt einen sehr guten Grund, die Möglichkeit aufgrund des Unvollständigkeitssatzes von Gödel und des Halteproblems von Turing zu bezweifeln. Es ist bizarr, dass dies oben nicht erwähnt wird. Es wäre schwierig, diesen Dingen hier gerecht zu werden, aber einige Leute haben lange und gründlich über die Frage nachgedacht, siehe zum Beispiel die Bücher von Roger Penrose.
Der wissenschaftliche Konsens ist fast überwältigend, dass eine starke KI möglich ist und der Substanzdualismus inkonsistent ist (es sei denn, Sie fügen eine Reihe von Qualifikationsmerkmalen zu "unmöglich" hinzu, was Searles ursprünglichem Argument gegen eine starke KI widerspricht). Sobald wir das aus dem Weg geräumt haben, als Antwort auf die eigentliche Frage von OP: Zwei falsche Überzeugungen müssen sich nicht gegenseitig implizieren. Sie haben eine Reihe von Annahmen identifiziert, die die falschen Überzeugungen gleichsetzen würden, aber das bedeutet nicht, dass der Glaube an eine Aussage den Glauben an die andere impliziert , da es durchaus möglich ist, dass der „Gläubige“ die umfassenden Auswirkungen nicht berücksichtigt hat sein Glaube. Wenn das immer so wäre, bräuchten wir überhaupt keine philosophischen Debatten.
Wenn es Ihr Ziel ist zu zeigen, dass diese Aussagen falsch sind, können Sie einfach jede Aussage einzeln angreifen, da die Äquivalenz, die Sie in Bezug auf Überzeugungen in diesen Aussagen ziehen, Ihrer Argumentation keinen erkenntnistheoretischen Wert hinzufügt.
Robert Bristol-Johnson
Alexander S. König
Alexander S. König
Robert Bristol-Johnson
Alexander S. König
Robert Bristol-Johnson
Robert Bristol-Johnson
Robert Bristol-Johnson
virmaior
Alexander S. König
Scott
virmaior
Robert Bristol-Johnson
Prost und hth. - Alf