In Bezug auf KI und Roboter - Können sie Empfindungsfähigkeit und Bewusstsein erreichen?

Wenn ein Roboter ein kognitives System in seinem „Kopf“ hätte, das den Turing-Test bestehen kann und seine KI-Fähigkeiten sich selbst erhalten (und er jeden Teil von „sich selbst“ neu programmieren kann, ohne Selbstsabotage zu verursachen), wie weit in seiner Entwicklung wäre es nehmen, damit es bewusst wird?

Es gab viel Hollywood-Hype um solche Situationen und ich habe mich gefragt, was es braucht, um diesen Punkt zu erreichen? Nicht aus technologischer, sondern aus philosophischer Sicht. Kann ein Computer sich selbst beibringen, ein Mensch zu sein? Oder muss ein Mensch in einen Computer gesteckt werden (dh Transzendenz)?

Als Informatiker glauben wir gerne, dass die Rechenleistung von Computern grenzenlos ist, und wenn ja, ist es eher eine Frage, ob wir Philosophen brauchen, um den Menschen einem Computer zu beschreiben. Kann ein wesentliches „dummes“ Wesen es ähnlich wie wir herausfinden, ohne es jemals zu haben? Es ist Bewusstsein oder Empfindung.

Nun, wir benötigen immer noch Programmierer-Input von außen (und das Ignorieren des Bedarfs führt zu einem langfristigen katastrophalen Ausfall), also ... ;-)
Wenn sich ein Roboter mit fortschrittlicher KI in Bezug auf wichtige Prozesse neu programmieren könnte, müsste er möglicherweise nicht auf die Unterstützung eines externen Programmierers warten. Vielleicht könnte das in naher Zukunft passieren..
Ungefähr so ​​weit wie Descartes
Es scheint mir, dass Sie etwas fragen wie: "Wenn ein Roboter ein kognitives System hat, das mit dem menschlichen Verstand vergleichbar ist, warum kann er/sie/es nicht die Kunst der Computerprogrammierung lernen?". Warum nicht ? ...
Ich denke, die Änderungen an dieser Frage haben sie ziemlich verbessert, und ich öffne die Frage erneut.
Bis in alle Ewigkeit. Denn die Welt ist bereits voll mit Robotern ... und nicht künstlich hergestellt.
Ist es ein Ziel der künstlichen Intelligenz, ein computerähnliches System zu „machen“, das sich selbst erhält und in der Lage ist, „Teile“ selbst neu zu programmieren, um möglicherweise die Effizienz und Selbstorganisation zu steigern? Könnten Sie ein solches System als „kognitiven Motor“ charakterisieren, der ständig daran „arbeitet“, die „Informationsentropie“ zu verringern oder zu stabilisieren? (wenn das Entropiekonzept auf Informationen angewendet werden kann)
Wenn ein KI-Computersystem sich selbst neu programmieren könnte und in der Lage wäre, dies kontinuierlich zu tun und alle daraus resultierenden interagierenden Programme und andere Informationen zu verwalten. Pakete benötigt es keine "externen" Programmierer oder deren Input. Es könnte sein eigener „persönlicher“ Programmierer und Reprogrammierer sein. Während Sie all diese Bemühungen verwalten; seine eigenen rechnerischen "Projekte". Ein solches System nenne ich „autokybernetisch“, im Gegensatz zu einem System, das für wichtige Funktionen Eingaben von „außen“ benötigt; das nenne ich „exo-kybernetisch“. Ein autokybernetisches KI-System wäre also sein eigenes Informationsmanagementsystem.
Was ist, wenn die „Anfänge“ des Bewusstseins teilweise nur innerhalb eines dynamischen Systems liegen, das seine eigenen Informationen verwalten und manipulieren kann; und dass es die Fähigkeit hat, sich jederzeit neu zu programmieren.
Kurz gesagt, nein. Jede andere Ansicht würde einige Beweise erfordern, von denen es keine gibt. Die Idee, dass Bewusstsein lediglich Berechnung ist, hat keine wissenschaftliche Unterstützung, obwohl sie unter Wissenschaftlern beliebt ist. Diejenigen, die das Bewusstsein studieren, lehnen es normalerweise als Widerspruch zu den Beweisen ab. .
Ich plädiere hier dafür, dass eine strukturelle Verschiebung erforderlich ist, damit Regelkreativität stattfinden kann, einschließlich Intersubjektivität oder agentenbasiertem Verständnis anderer Agenten in der Gemeinschaft, die dynamisch Regeln entwickelt: Philosophy.stackexchange.com/a/86890/30474

Antworten (4)

Diese Art von Frage geht davon aus, dass das Bewusstsein eines Menschen eine emergente Eigenschaft des Gehirns ist. Wir haben keine Ahnung, ob das stimmt. Wenn Bewusstsein immateriell ist, dann kann es nicht von einem Computer kopiert werden.

Die vorhergehende Frage, die beantwortet werden muss, lautet also, ob das Bewusstsein materiellen Ursprungs ist. Der gesunde Menschenverstand würde nein sagen.

Ein Computersystem, das „irgendwie“ selbsterhaltend ist, könnte eine „Ansammlung“ von Programmen mit bestimmten unveränderlichen notwendigen Eigenschaften haben. Diese Hierarchie interagierender Programme, die für das Funktionieren des Computers erforderlich ist, könnte als IMMATERIELLER Teil des Systems betrachtet werden, genauso wie die Verwendung der Analogie von „Software“, die den „Geist“ darstellt, und „Hardware“, die das Gehirn darstellt.
Sie sagen, dass Bewusstsein eine emergente Eigenschaft ist, und das ist der Punkt, auf den ich in dem Kommentar antworte, den Sie kommentiert haben ...
Ist ein Computer-Betriebssystem nicht ein System von Programmen, die „immateriell“ sind und dennoch von einem Computer kopiert werden können? Wenn ein Betriebssystem einer KI-Maschine „autark“ ist, könnte es seiner „logischen Struktur“ neue Qualitäten „hinzufügen“ und somit emergente Qualitäten haben.
Wenn ein KI-System Fähigkeiten entwickeln würde, alle seine wichtigen Qualitäten selbst zu erhalten, wäre es ein selbstorientiertes „Konglomerat“ von Informations-„Paketen“ und Programmen, die sich alle ständig selbst entwerfen und neu entwerfen, um „sich selbst“ zu erhalten. Also dieser sich selbst erhaltende „Satz“ von „aktiven“ Informationen. Prozesse wären analog zum informationsselbstmanipulierenden „Geist“ (ein sich selbst erhaltendes System aktiver „semi-invarianter“ Prozesse). Ich denke, jeder wichtige Prozess wird als nicht greifbar angesehen, weil er nicht vollständig durch physikalische Strukturen und ihre Wechselwirkungen „erklärbar“ ist.
Warum ist es gesunder Menschenverstand, dass Bewusstsein immateriell ist? Vielleicht verstehe ich Ihre Verwendung des Wortes Material nicht.
Ich verwende den Begriff immateriell, weil ich von vielen Menschen gehört und gelesen habe, die Bewusstsein auf diese Weise beschreiben, als ob es nicht in tatsächlichen physikalischen Prozessen im Gehirn oder irgendeiner Art von physikalischen „Strukturen“ von Neuronen und Axonen „verwurzelt“ wäre usw., dann ist es nicht 'echt' oder es ist 'gespenstisch'. Ich glaube, dass Bewusstsein oder ein autarkes KI-Betriebssystem (ein Analogon zum „Verstand“) so real sind wie das Gehirn.
Ist das Argument des „Physikalismus“, dass unser „Verstand“ mit unserem Gehirn identisch ist? Um eine Analogie zu nehmen, Hardware kann Software nicht umstrukturieren oder neu programmieren (es sei denn, einige Hardware beschädigt die Software), aber analog dazu kann "Gehirn" -Hardware "Geist" -Software neu programmieren. Ich denke, nur Software (ob in einem Computer oder einem "Geist-Gehirn". ') kann andere Software "funktional" verändern (so dass sie immer noch funktioniert).
Wenn es eine Reihe von autarken autarken KI-Systemen gäbe, die keine Eingaben von „externen Programmierern“ benötigen, könnten alle diese Systeme von „außen“ „studiert“ werden, indem man sieht, wie jedes einzelne „sich selbst“ programmiert und neu programmiert und wie jede verwaltet und organisiert diese Programme. Untersuchen Sie auch, wie jedes System sein eigenes „Projekt“ oder seine eigenen Ziele „aufbaut“ und wie sie diese ausführen. Wenn solche Systeme von „außen“ studiert werden, werden die „Programme“ und wie sie manipuliert werden zu den grundlegenden „Einheiten“ des Studiums. Dies könnte als Untersuchung von „Mustern“ der Programmmanipulation oder „Meta-Programmierung“ betrachtet werden.
Ist ein Softwaresystem, das eine Maschine steuert, „Material“ im Ursprung? Wenn ein Softwaresystem, das eine neue Software-„Kombination“ durch einen genetischen Algorithmus „macht“, und diese neue Software-Kombination zum Rest seiner Programmierung hinzufügt, ist dieses zusätzliche Material ursprünglich?
Wenn ich bewusst und empfindungsfähig bin, weil ich eine Seele habe (oder vielleicht genauer gesagt, weil ich eine Seele bin, die vorübergehend einen Körper besitzt), was hindert dann einen Computer daran, eine Seele zu bekommen? Ich habe nicht ewig existiert, also ist meine Seele entweder irgendwann in meiner Entwicklung entstanden oder eine bereits existierende Seele, die an meinem Körper haftet. Keiner dieser Prozesse erfordert unbedingt irgendeine Art von Biologie.
@ DavidThornley, der Computer wäre nicht empfindungsfähig, genauso wie der Körper nicht empfindungsfähig ist. In beiden Fällen ist nur die Seele empfindungsfähig.
'Gesunder Menschenverstand' hat eine ziemlich schreckliche Erfolgsbilanz und ist keine Grundlage für Philosophie oder Wissenschaft.

Es wird deutlich, dass bei all den Gehirn- und Bewusstseinstheorien der Beweis im Pudding liegen wird. Damit meine ich, kann jede bestimmte Theorie verwendet werden, um eine bewusste Maschine auf menschlicher, erwachsener Ebene zu erschaffen. Ich wette auf die Extended Theory of Neuronal Group Selection des verstorbenen Gerald Edelman. Die führende Gruppe in der Robotik, die auf dieser Theorie basiert, ist das Neurorobotics Lab an der UC in Irvine. Dr. Edelman unterschied zwischen primärem Bewusstsein, das zuerst in der Evolution entstand und das Menschen mit anderen bewussten Tieren teilen, und Bewusstsein höherer Ordnung, das nur mit dem Erwerb von Sprache zu Menschen kam. Eine Maschine mit primärem Bewusstsein wird wahrscheinlich zuerst kommen müssen.

Was ich am TNGS besonders finde, ist die Darwin-Serie von Automaten, die am Neurosciences Institute von Dr. Edelman und seinen Kollegen in den 1990er und 2000er Jahren entwickelt wurde. Diese Maschinen arbeiten in der realen Welt, nicht in einer eingeschränkten simulierten Welt, und zeigen ein überzeugendes physisches Verhalten, das auf höhere psychologische Funktionen hinweist, die für das Bewusstsein notwendig sind, wie etwa Wahrnehmungskategorisierung, Gedächtnis und Lernen. Sie basieren auf realistischen Modellen der Teile des biologischen Gehirns, von denen die Theorie behauptet, dass sie diesen Funktionen dienen. Das erweiterte TNGS ermöglicht auf sparsame Weise die Entstehung des Bewusstseins, das nur auf der weiteren evolutionären Entwicklung der für diese Funktionen verantwortlichen Gehirnbereiche basiert. Keine andere Untersuchung, die mir begegnet ist, ist auch nur annähernd so überzeugend.

Ich poste, weil in fast jedem Video und Artikel über das Gehirn und das Bewusstsein, dem ich begegne, die Einstellung zu sein scheint, dass wir immer noch so gut wie nichts darüber wissen, wie das Gehirn und das Bewusstsein funktionieren; dass es viele Daten gibt, aber keine vereinheitlichende Theorie. Ich glaube, das erweiterte TNGS ist diese Theorie. Meine Motivation ist es, diese Theorie vor der Öffentlichkeit zu halten. Und offensichtlich betrachte ich es als den Weg zu einer wirklich bewussten Maschine, primärer und höherer Ordnung.

Mein Rat an Leute, die eine bewusste Maschine erschaffen wollen, ist, sich zuerst ernsthaft mit dem erweiterten TNGS und den Darwin-Automaten zu vertiefen und von dort aus fortzufahren, indem sie sich möglicherweise bei Jeff Krichmars Labor an der UC Irvine bewerben. Dr. Edelmans Fahrplan für eine bewusste Maschine ist unter https://arxiv.org/abs/2105.10461 zu finden

Was ist am Ende des Tages ein menschliches Gehirn? Es ist ein Netzwerk von Neuronen, die darauf trainiert wurden, auf bestimmte Weise auszulösen und im Wesentlichen logische Gatter wie NAND und NOR zu simulieren. Man kann eine theoretische Zuordnung von logischen Gattern zu Neuronen konstruieren, die zeigt, dass die logischen Gatter in der Lage sind, ein menschliches Gehirn/Nervensystem zu simulieren. Daher ist das menschliche Gehirn vom Standpunkt der Rechenleistung / Sprachhierarchie aus "nicht anders" als ein Computer, da sie aufeinander reduzierbar sind. Also scheint die Antwort ja zu sein, es ist möglich.

Die Kosten für die Gewissensentwicklung eines Computers sind jedoch eine andere Geschichte. Die oben erwähnte Kartierung ignoriert praktische Schritte und Kosten dafür, wie man ein künstliches Gehirn/Empfindungsvermögen in der Praxis erstellen würde. Soweit wir wissen, können die Kosten für die praktische Schaffung einer selbstbewussten Maschine unerschwinglich sein. Also, obwohl es möglich sein mag, ist es vielleicht nicht praktikabel.

Vielleicht wären die Kosten für die praktische Schaffung einer selbstbewussten Maschine und deren „Start“ exorbitant, aber wenn das System autark ist, könnte es sich ohne weitere Kosten oder Überwachung „selbst am Laufen halten“.
Vergessen Sie auch nicht, dass Sie, sobald Sie ein solches Wesen haben, es einfach kopieren können, vorausgesetzt, es ist computergestützt, sodass die anfänglichen Kosten möglicherweise enorm sind, aber nicht pro Einheit, wenn Sie sie kopieren. Ich schätze, die Kosten wären die Kosten für die Entwicklung des physischen Gegenstands und dann die Bildung, die höchstwahrscheinlich der Erziehung eines Kindes ähnelt.
Es gibt jetzt oder bald einen faszinierenden Film mit dem Titel „Automata“ mit Antonio Banderas (verzeihen Sie die Rechtschreibung) und Melanie Griffith über eine zukünftige Gesellschaft, in der einige Roboter entdecken, wie sie sich selbst und ihre eigene Programmierung ändern können, um sich selbst „umzuprogrammieren“. -reicht aus. Banderas arbeitet für eine Organisation (glaube ich), die sich darum kümmert, dass diese Roboter sich gegenseitig „umprogrammieren“, also muss er sie finden und zerstören, bevor es zu einer „Revolte“ kommt. Obwohl es kein typischer 'Robot Revolution'-Film ist. Es wird erwähnt, wie ein Roboter, der seine Programmierung ändert, so ist, als würde er Autarkie aufbauen.
Wenn Asimovs 3 Gesetze der Robotik so nützlich sind, um empfindungsfähige Roboter zu regieren, warum wurde dann die menschliche Moral kodifiziert und in eine kleine endliche Anzahl von „Gesetzen“ komprimiert, die jeder befolgen sollte, anstatt in die riesigen, fast unverständlichen Gesetzesbücher, die nur Anwälte verstehen können?

Unter der Annahme, dass der Roboter den Turing-Test besteht, kann er niemals ohne zusätzlichen Input eine eigene Entscheidung treffen. Ein Roboter, der auf der Grundlage seiner eigenen Erfahrungen aus der Vergangenheit lernen kann (obwohl er Sensoren verwendet und feststellen kann, dass Teile seines eigenen Systems etwas versagt haben), wäre die beste Beschreibung eines bewussten Roboters. Damit dies jedoch so schlau wie ein Mensch ist, müsste es so viele Erfahrungen von jedem Menschen auf der Welt machen, und es würde den Menschen zu viel Zeit kosten, ihm alles beizubringen, was wir wissen. Eine Möglichkeit besteht darin, Roboter miteinander sprechen zu lassen, so dass, wenn einer etwas lernt, alle es tun. Wie zum Beispiel „geh nicht von einer Klippe, um weiterhin intakt zu bleiben“. An diesem Punkt wird jeder Roboter, der diese Nachricht erhalten hat, zu einer Klippe gehen und darauf zugreifen.

Wenn Sie dies im Hinterkopf behalten, ist der Roboter, sobald Sie ihn so weit haben, dass er sich frei bewegen und lernen kann und über seine Umgebung so informiert ist, dass er darauf basierende Regeln erstellen kann, bei Bewusstsein. Es kann immer noch einige schreckliche Fehler machen, wie z. B. jemandem zu schnell ein Messer zu geben und ihn zu töten, wie in diesem Artikel , aber es wird immer noch bei Bewusstsein sein. Es wäre klug, ihm bestimmte Dinge beizubringen, aber es spielt keine Rolle, wenn es nur um den Punkt geht, an dem es bewusst wird.

Weil Sie sagten, dass es Dinge in sich selbst verändern kann, befriedigt das die Notwendigkeit, sich seiner selbst bewusst zu sein. In der Lage zu sein, etwas in sich selbst zu ändern, impliziert, dass es die Fähigkeit hat, seinen eigenen Code und seine eigene Mechanik zu sehen, was bedeutet, dass es auch Fehler identifizieren kann.

Wahrscheinlich, und wenn man bedenkt, an welchem ​​Punkt wir bei der Robotik sind, warten wir auf eine Zeit, in der wir wissen, dass der Roboter uns nicht versehentlich verletzen wird (was die Robotikindustrie aufgrund mangelnden Vertrauens um viele Jahre zurückwerfen würde), und kämmen aus die Details, um sicherzustellen, dass es nach Bedarf lernen kann und sich selbst erhalten kann, um sich selbst zu schützen. Dies wird wahrscheinlich nicht mehr weit sein.

Wenn es die drei Gesetze der Robotik nicht ausführen kann, sollte es schließlich nicht autark unter Menschen auftreten.

Offensichtlich wissen Sie nicht, was Bewusstsein ist. Schlagen Sie vor, dass Sie dieser Roboter sind?
Wie würde man „autark unter Menschen agieren“ definieren? Wäre es eine rein selbstorientierte Selbstversorgung, wie sie viele Menschen „benutzen“, oder könnten Roboter so „eingerichtet“ werden, dass sie das tun, was das Beste für sie selbst und jede „lokale“ Gruppe anderer Roboter und Menschen ist, mit denen sie zusammen sind? Ich habe gehört, John Nash könnte so etwas vorgeschlagen haben.
@ user128932, ich betrachte autarke Leistung als die Fähigkeit, sich ohne Hilfe zu bewegen, und die Fähigkeit, allein gelassen zu werden, während man etwas tut, ohne Angst zu haben, dass es sich auf irgendeine Weise selbst bricht. Die Frage wurde nicht nach Robotik in Bezug auf einen bestimmten Aufgabenroboter gestellt, obwohl ich aus diesem Grund selbstorientierte Selbstgenügsamkeit sagen würde, weil dies der Zustand ist, der dazu führen würde, dass er am meisten lernt und am humanistischsten ist.
@Ashpir Ich verstehe nicht, warum du das überhaupt sagst. Meine Antwort enthält eindeutig nichts, was darauf hindeutet, dass ein Mensch sich eines Roboters bewusst ist und sein sensorisches System ist. Ich schlage vor, Sie schauen sich diese Seite dictionary.reference.com/browse/consciousness an und lesen meine Antwort noch einmal.