Computer, künstliche Intelligenz und Erkenntnistheorie

Einige Klassifikationsschemata führen die Logik nicht als separaten Zweig der Philosophie auf. Ich nehme an, sie betrachten Logik als eine Komponente der Erkenntnistheorie.

Natürlich betrachten andere die Logik als einen separaten Zweig. Die folgende Diskussion berührt einige der Unterschiede zwischen Erkenntnistheorie und Logik:

Ist Erkenntnistheorie = Logik?

Mir ist aufgefallen, dass Computer Logik verwenden, aber nicht mit „Intelligenz“ in Verbindung gebracht werden. Künstliche Intelligenz könnte das natürlich ändern. Aber im Moment arbeiten die meisten Computer mit Logik und erfordern menschliche Operatoren, um Intelligenz einzugeben.

Andererseits können Computer auch als tragbare Bibliotheken fungieren, die riesige Wissensspeicher enthalten.

Haben irgendwelche Philosophen oder Doktrinen die Beziehung zwischen Computern und Erkenntnistheorie untersucht? Oder anders gefragt: Was sind die erkenntnistheoretischen Unterschiede zwischen Computern und Menschen?

Computer drehen Bits um und Menschen liefern die Bedeutung. Ist das nicht Searles Punkt im Chinesischen Raum? Wenn Sie sagen, dass Menschen Intelligenz liefern, ist das schwierig ... Intelligenz und Bedeutung sind nicht ganz dasselbe. Vielleicht ist das die Frage.
Der ältere Sinn von „Logik“ (von Platon bis Kant, Hegel und Husserl verwendet) war näher an dem, was heute „Erkenntnistheorie“ genannt wird, als an dem, was jetzt eng als „Logik“ bezeichnet wird, siehe Was sind die Unterschiede zwischen Philosophien, die eine Logik voraussetzen gegenüber viele Logiken? In ähnlicher Weise haben Computer im traditionellen Sinne von „Wissen“ (begründete wahre Überzeugung) keine. Die Frage wird teilweise dadurch beantwortet, wie es geändert werden muss, um "Belief" fallen zu lassen, siehe Haben Algorithmen für maschinelles Lernen Wissen?
Es scheint kein schwieriges Thema zu sein. Computer können nichts wissen, während Menschen es können. Wenn Erkenntnistheorie die Lehre davon ist, wie wir Dinge wissen und was wir wissen, dann hat sie nichts mit Computern zu tun. Es ist nicht die Logik, die es uns ermöglicht, Dinge zu wissen, sondern die Fähigkeit, Dinge zu wissen, die mit Bewusstsein einhergeht oder einfach Bewusstsein ist. .
@PeterJ, mein Computer weiß, wo ich die letzten 10 Jahre war.
@Hierarchist - Meine Schuhe wissen, wo ich gewesen bin.
@ PeterJ Tun sie das? Ich glaube nicht.
@gnasher729, Pete versucht, Schuhe mit Computern gleichzusetzen, um zu zeigen, dass Computer nicht wissen, wo ich gewesen bin. Natürlich begeht Pete den falschen Äquivalenzirrtum, weil Schuhe keine Computer sind.

Antworten (1)

Sie sprechen von KI, als ob es menschlicher Intelligenz bedarf, um erkenntnistheoretische Fragen aufzuwerfen, wenn das aktuelle Technologieniveau von Robotern und maschinellem Lernen sie bereits aufgeworfen hat. Einige Philosophen haben bereits angenommen, dass der aktuelle Stand der Technik erkenntnistheoretische Implikationen hat. In ihrem Artikel Epistemology and Artificial Intelligence behaupten Wheeler und Pereira, dass metaphysische Implikationen der bestehenden engen KI ernsthafte philosophische Fragen aufwerfen:

In diesem Aufsatz vertreten wir die Ansicht, dass analytische Epistemologie und künstliche Intelligenz komplementäre Disziplinen sind. Beide Bereiche untersuchen erkenntnistheoretische Beziehungen, aber während sich künstliche Intelligenz diesem Thema aus der Perspektive des Verständnisses formaler und rechnerischer Eigenschaften von Rahmenwerken nähert, die vorgeben, die eine oder andere erkenntnistheoretische Beziehung zu modellieren, nähert sich die traditionelle Erkenntnistheorie dem Thema aus der Perspektive des Verständnisses der Eigenschaften erkenntnistheoretischer Beziehungen in Begriffen ihrer konzeptuellen Eigenschaften. Wir argumentieren, dass diese beiden Praktiken nicht isoliert durchgeführt werden sollten.

Die Frage, warum einige Leute Computer als bloße Bittwibbler ablehnen, kann Vermutungen über den Zustand der Computerkapazität zur Simulation von Bedeutung und Intelligenz demonstrieren. Da Computer keine Symbole verstehen (was angesichts des fragwürdigen Begriffs von "Verstehen" sogar eine offene Frage ist), wird angenommen, dass sie in ihrer derzeitigen Form einfach nicht intelligent sind. Intuitiv, da sie Schachmeister übertreffen und Diagnostiker wie Ärzte übertreffen können, stellt sich sicherlich die Frage, warum wir sicher sein können, dass sie letztendlich keine Intelligenz, keinen gesunden Menschenverstand, keine Emotionen oder Ähnliches zeigen können. Sicher, eliminative Materialistenwie Dennett haben Einwände erhoben, dass Behauptungen über die Einzigartigkeit der menschlichen Intelligenz, die auf Überzeugungen oder Wünschen beruhen, möglicherweise nicht einmal sinnvoll sind.

Darüber hinaus haben Kognitionswissenschaftler wie Ray Jackendoff empirisch überprüfbare Hypothesen über die Ursprünge von Referenz, Wahrheit und Bedeutung aufgestellt, die bestätigt haben, dass das Versagen des symbolistischen Lagers bei der Produktion von KI auf menschlicher Ebene darauf zurückzuführen ist, dass die menschliche Repräsentation und Bedeutung sich im Allgemeinen selbst darstellt nicht symbolisch. Auf Seite 423 seiner Foundations of Language schreibt er:

... es war wichtig ... die Idee aufzugeben, dass sprachliche Einheiten im Gehirn Symbole oder Repräsentationen sind . Wir waren stattdessen in der Lage, sie einfach als Strukturen zu behandeln , die aus diskreten kombinatorischen Einheiten aufgebaut sind.

Dies bestätigt natürlich die langjährigen Überzeugungen des konnektionistischen Lagers.

Die Frage, ob unsere Computer wissen und intelligent sind, kann philosophisch in Anlehnung an die philosophische Frage der Intentionalität untersucht werden. Dies ist ein schwieriges Thema aufgrund unterschiedlicher und ungenauer Definitionen von Wissen (ist es gerechtfertigter wahrer Glaube?), Intelligenz (was bedeutet es, zu sagen, dass eine Person intelligent ist?) und Intentionalität (haben Computer nicht die Fähigkeit, non -symbolische Mittel wie Sensoren zur Generierung von Wahrnehmungen zur Darstellung des Sachverhalts?). Aus dem SEP-Artikel über Intentionalität :

In der Philosophie ist Intentionalität die Kraft des Geistes und der mentalen Zustände, Dinge, Eigenschaften und Sachverhalte darzustellen, darzustellen oder dafür zu stehen. Von den mentalen Zuständen eines Individuums zu sagen, dass sie Intentionalität haben, bedeutet zu sagen, dass sie mentale Repräsentationen sind oder dass sie Inhalte haben.

Diese Frage nach der Intentionalität wird dadurch erschwert, dass noch nicht einmal wissenschaftlich geklärt ist, wie Menschen Intentionalität besitzen.

Eine weitere Reihe philosophischer Fragen dreht sich um das Problem der Symbolerdung . Es ist schwer, die Fähigkeit eines Computersystems, Bedeutung oder Wissen zu haben, zu vergleichen, wenn das gleiche Problem für Menschen umstritten ist. Von der Hand zu weisen, dass Computer keine Fähigkeit haben, Wissen zu haben, wenn man nicht erklären kann, wie Menschen Wissen haben, kann Egozentrik sein. Gibt es wirklich etwas Besonderes am menschlichen Bewusstsein oder an der Intentionalität, das nicht durch ein funktionales Äquivalent nachgebildet werden kann ? Es ist eine offene philosophische Kontroverse in der Philosophie des Geistes, was Bewusstsein ausmacht und welche Varianten es geben könnte . John Searles Anspruch auf Berühmtheit mit seinen verschiedenen Argumenten im Chinesischen Raumvielleicht war er der am meisten widerlegte Philosoph auf diesem Gebiet. All dies sind neuere Erweiterungen der seit langem bestehenden erkenntnistheoretischen Frage nach der Gewissheit, dass auch andere Menschen einen Verstand haben .

Beginnend mit den Anfängen elektronischer Computer am Caltech in den späten 1940er Jahren bis Mitte und Ende der 1950er Jahre an Orten wie Dartmouth oder dem National Physical Laboratory in Großbritannien, entstand der Optimismus, dass Computer schnell anfangen würden, sich der Intelligenz des Menschen anzunähern. Zehn Jahre später schrieb Hubert Dreyfus, der für RAND arbeitete, Alchemy and Artificial Intelligence und dämpfte den Optimismus, der bis vor kurzem anhielt, wo eine wachsende Zahl von KI-Forschern erneut argumentierte, dass künstliche allgemeine Intelligenz tatsächlich möglich ist:

Einige Behörden betonen eine Unterscheidung zwischen starker KI und angewandter KI (auch enge KI oder schwache KI genannt): die Verwendung von Software, um bestimmte Problemlösungs- oder Argumentationsaufgaben zu untersuchen oder auszuführen. Schwache KI versucht im Gegensatz zu starker KI nicht, die gesamte Bandbreite menschlicher kognitiver Fähigkeiten auszuschöpfen ... Ab 2017 forschten über vierzig Organisationen an AGI.

Sicherlich haben viele KI-Experten akzeptiert, dass Computer wie Desktop-PCs, selbst wenn sie zur Wissensdarstellung fähig sind , im Allgemeinen an Verständnis mangelt. Poole und Mackworth sagen in ihrem Buch Artificial Intelligence: Foundations of Computational Agents auf Seite 179:

Es ist sehr wichtig zu verstehen, dass der Computer die Bedeutung der Symbole nicht kennt, bis wir Computer mit Wahrnehmung und der Fähigkeit betrachten, in der Welt zu agieren. Es ist der Mensch, der den Symbolen Bedeutung verleiht. Allerdings ... es kann Schlussfolgerungen ziehen, die in der Welt wahr sind.

Beachten Sie den Satz "bis wir die Wahrnehmung und die Fähigkeit zum Handeln in der Welt berücksichtigen". Sind Sie wirklich so sicher, dass der Atlas von Boston Dynamics keine Absicht zeigt ? Zu Beginn ihres Textes auf Seite 10:

Die Wissenschaft der KI könnte als „Synthetische Psychologie“, „Experimentelle Philosophie“ oder „Computational Epistemology“ beschrieben werden … Moderne Computer bieten eine Möglichkeit, die Modelle zu konstruieren, über die Philosophen nur Theorien aufstellen konnten.

Die Idee, dass aktuelle Computerarchitekturen nur dumme Terminals sind, scheint der stark widerlegten kartesischen Behauptung zu entsprechen, dass Tiere nur Automaten sind, weil sie keine Seele haben . Descartes scheint sowohl in Bezug auf Tiere als auch auf die Geist-Körper-Dualität falsch zu liegen. Wenn Sie am aktuellen Stand der philosophischen Erforschung von Computern interessiert sind, stöbern Sie ein wenig weiter unter https://philpapers.org/browse/philosophy-of-artificial-intelligence !

Die Fortschritte der KI und die der kognitiven Linguistik, die die rechnerischen Ursprünge der Bedeutung angreifen, werfen zusammen ernsthafte Fragen über die Machbarkeit von Computern auf, die Intentionalität und epistemische Kapazität manifestieren.

SIEHE AUCH

Haben maschinelle Lernalgorithmen Wissen (wenn nicht begründete wahre Überzeugungen)?

Ich habe dies positiv bewertet, weil ich denke, dass dies ein ernsthafter Versuch ist, die Frage zu beantworten. Es scheint absolut richtig, dass das Fach alternative Formulierungen von Absichtsinhalten in Betracht gezogen hat und wie diese Theorien eine Verbindung zwischen Symbolmanipulation und Wissenserwerb darstellen könnten. Es versucht vielleicht, in einem kurzen Zeichenraum zu viel zu tun, aber das ist die Natur der Frage, denke ich.
Ich schätze das Feedback. Die Art der Frage scheint ein Dilemma aufzuwerfen, indem angenommen wird, dass der aktuelle Stand der künstlichen Intelligenz nicht ausreicht, um zu erkenntnistheoretischen Überlegungen beizutragen, wenn es eindeutig eine kleine, aber aktive Gruppe von Philosophen gibt, die daran arbeiten, das Feld voranzubringen, und sich dann mit einer Metaphysik auseinandersetzen von Intentionalität und Intelligenz selbst. Ich sehe philosophische Vorurteile gegen die Frage nach der Allgemeinheit der Intentionalität von Computern vor allem in der Laiendefinition von Computern, die oft als "bloße Werkzeuge" gleichgesetzt werden. Vielen Dank für Ihre positive Bewertung.