Wenn ein Roboter ein kognitives System in seinem „Kopf“ hätte, das den Turing-Test bestehen kann und seine KI-Fähigkeiten sich selbst erhalten (und er jeden Teil von „sich selbst“ neu programmieren kann, ohne Selbstsabotage zu verursachen), wie weit in seiner Entwicklung wäre es nehmen, damit es bewusst wird?
Es gab viel Hollywood-Hype um solche Situationen und ich habe mich gefragt, was es braucht, um diesen Punkt zu erreichen? Nicht aus technologischer, sondern aus philosophischer Sicht. Kann ein Computer sich selbst beibringen, ein Mensch zu sein? Oder muss ein Mensch in einen Computer gesteckt werden (dh Transzendenz)?
Als Informatiker glauben wir gerne, dass die Rechenleistung von Computern grenzenlos ist, und wenn ja, ist es eher eine Frage, ob wir Philosophen brauchen, um den Menschen einem Computer zu beschreiben. Kann ein wesentliches „dummes“ Wesen es ähnlich wie wir herausfinden, ohne es jemals zu haben? Es ist Bewusstsein oder Empfindung.
Diese Art von Frage geht davon aus, dass das Bewusstsein eines Menschen eine emergente Eigenschaft des Gehirns ist. Wir haben keine Ahnung, ob das stimmt. Wenn Bewusstsein immateriell ist, dann kann es nicht von einem Computer kopiert werden.
Die vorhergehende Frage, die beantwortet werden muss, lautet also, ob das Bewusstsein materiellen Ursprungs ist. Der gesunde Menschenverstand würde nein sagen.
Es wird deutlich, dass bei all den Gehirn- und Bewusstseinstheorien der Beweis im Pudding liegen wird. Damit meine ich, kann jede bestimmte Theorie verwendet werden, um eine bewusste Maschine auf menschlicher, erwachsener Ebene zu erschaffen. Ich wette auf die Extended Theory of Neuronal Group Selection des verstorbenen Gerald Edelman. Die führende Gruppe in der Robotik, die auf dieser Theorie basiert, ist das Neurorobotics Lab an der UC in Irvine. Dr. Edelman unterschied zwischen primärem Bewusstsein, das zuerst in der Evolution entstand und das Menschen mit anderen bewussten Tieren teilen, und Bewusstsein höherer Ordnung, das nur mit dem Erwerb von Sprache zu Menschen kam. Eine Maschine mit primärem Bewusstsein wird wahrscheinlich zuerst kommen müssen.
Was ich am TNGS besonders finde, ist die Darwin-Serie von Automaten, die am Neurosciences Institute von Dr. Edelman und seinen Kollegen in den 1990er und 2000er Jahren entwickelt wurde. Diese Maschinen arbeiten in der realen Welt, nicht in einer eingeschränkten simulierten Welt, und zeigen ein überzeugendes physisches Verhalten, das auf höhere psychologische Funktionen hinweist, die für das Bewusstsein notwendig sind, wie etwa Wahrnehmungskategorisierung, Gedächtnis und Lernen. Sie basieren auf realistischen Modellen der Teile des biologischen Gehirns, von denen die Theorie behauptet, dass sie diesen Funktionen dienen. Das erweiterte TNGS ermöglicht auf sparsame Weise die Entstehung des Bewusstseins, das nur auf der weiteren evolutionären Entwicklung der für diese Funktionen verantwortlichen Gehirnbereiche basiert. Keine andere Untersuchung, die mir begegnet ist, ist auch nur annähernd so überzeugend.
Ich poste, weil in fast jedem Video und Artikel über das Gehirn und das Bewusstsein, dem ich begegne, die Einstellung zu sein scheint, dass wir immer noch so gut wie nichts darüber wissen, wie das Gehirn und das Bewusstsein funktionieren; dass es viele Daten gibt, aber keine vereinheitlichende Theorie. Ich glaube, das erweiterte TNGS ist diese Theorie. Meine Motivation ist es, diese Theorie vor der Öffentlichkeit zu halten. Und offensichtlich betrachte ich es als den Weg zu einer wirklich bewussten Maschine, primärer und höherer Ordnung.
Mein Rat an Leute, die eine bewusste Maschine erschaffen wollen, ist, sich zuerst ernsthaft mit dem erweiterten TNGS und den Darwin-Automaten zu vertiefen und von dort aus fortzufahren, indem sie sich möglicherweise bei Jeff Krichmars Labor an der UC Irvine bewerben. Dr. Edelmans Fahrplan für eine bewusste Maschine ist unter https://arxiv.org/abs/2105.10461 zu finden
Was ist am Ende des Tages ein menschliches Gehirn? Es ist ein Netzwerk von Neuronen, die darauf trainiert wurden, auf bestimmte Weise auszulösen und im Wesentlichen logische Gatter wie NAND und NOR zu simulieren. Man kann eine theoretische Zuordnung von logischen Gattern zu Neuronen konstruieren, die zeigt, dass die logischen Gatter in der Lage sind, ein menschliches Gehirn/Nervensystem zu simulieren. Daher ist das menschliche Gehirn vom Standpunkt der Rechenleistung / Sprachhierarchie aus "nicht anders" als ein Computer, da sie aufeinander reduzierbar sind. Also scheint die Antwort ja zu sein, es ist möglich.
Die Kosten für die Gewissensentwicklung eines Computers sind jedoch eine andere Geschichte. Die oben erwähnte Kartierung ignoriert praktische Schritte und Kosten dafür, wie man ein künstliches Gehirn/Empfindungsvermögen in der Praxis erstellen würde. Soweit wir wissen, können die Kosten für die praktische Schaffung einer selbstbewussten Maschine unerschwinglich sein. Also, obwohl es möglich sein mag, ist es vielleicht nicht praktikabel.
Unter der Annahme, dass der Roboter den Turing-Test besteht, kann er niemals ohne zusätzlichen Input eine eigene Entscheidung treffen. Ein Roboter, der auf der Grundlage seiner eigenen Erfahrungen aus der Vergangenheit lernen kann (obwohl er Sensoren verwendet und feststellen kann, dass Teile seines eigenen Systems etwas versagt haben), wäre die beste Beschreibung eines bewussten Roboters. Damit dies jedoch so schlau wie ein Mensch ist, müsste es so viele Erfahrungen von jedem Menschen auf der Welt machen, und es würde den Menschen zu viel Zeit kosten, ihm alles beizubringen, was wir wissen. Eine Möglichkeit besteht darin, Roboter miteinander sprechen zu lassen, so dass, wenn einer etwas lernt, alle es tun. Wie zum Beispiel „geh nicht von einer Klippe, um weiterhin intakt zu bleiben“. An diesem Punkt wird jeder Roboter, der diese Nachricht erhalten hat, zu einer Klippe gehen und darauf zugreifen.
Wenn Sie dies im Hinterkopf behalten, ist der Roboter, sobald Sie ihn so weit haben, dass er sich frei bewegen und lernen kann und über seine Umgebung so informiert ist, dass er darauf basierende Regeln erstellen kann, bei Bewusstsein. Es kann immer noch einige schreckliche Fehler machen, wie z. B. jemandem zu schnell ein Messer zu geben und ihn zu töten, wie in diesem Artikel , aber es wird immer noch bei Bewusstsein sein. Es wäre klug, ihm bestimmte Dinge beizubringen, aber es spielt keine Rolle, wenn es nur um den Punkt geht, an dem es bewusst wird.
Weil Sie sagten, dass es Dinge in sich selbst verändern kann, befriedigt das die Notwendigkeit, sich seiner selbst bewusst zu sein. In der Lage zu sein, etwas in sich selbst zu ändern, impliziert, dass es die Fähigkeit hat, seinen eigenen Code und seine eigene Mechanik zu sehen, was bedeutet, dass es auch Fehler identifizieren kann.
Wahrscheinlich, und wenn man bedenkt, an welchem Punkt wir bei der Robotik sind, warten wir auf eine Zeit, in der wir wissen, dass der Roboter uns nicht versehentlich verletzen wird (was die Robotikindustrie aufgrund mangelnden Vertrauens um viele Jahre zurückwerfen würde), und kämmen aus die Details, um sicherzustellen, dass es nach Bedarf lernen kann und sich selbst erhalten kann, um sich selbst zu schützen. Dies wird wahrscheinlich nicht mehr weit sein.
Wenn es die drei Gesetze der Robotik nicht ausführen kann, sollte es schließlich nicht autark unter Menschen auftreten.
John Dvorak
Benutzer128932
Rahmen Catherine White
Mauro ALLEGRANZA
Davidlowryduda
Asphir Dom
Benutzer128932
Benutzer128932
201044
Benutzer20253
CriglCragl