Deuten die Grenzen der menschlichen Natur darauf hin, dass sie prinzipiell verstanden werden könnte?

Die menschliche Natur ist begrenzt, unser Denken auch. Wir sind durch unseren Körper begrenzt, und die Macht der Gedanken ist begrenzt durch die Anzahl der kortikalen und anderen Neuronen , die Anzahl und Geschwindigkeit ihrer Verbindungen, die wiederum durch das Schädelvolumen und andere physische Einschränkungen begrenzt sind.

Stimmt es, dass, wenn unser Denken begrenzt ist, es verstanden und sein Mechanismus logisch erklärt und daher auf Prozesse rein algorithmischer Natur reduziert werden könnte? Bedeutet das, dass wir irgendwann "einen menschlichen Computer" machen könnten?

Wir sind begrenzt, aber wir sind nicht so begrenzt! Ich glaube nicht, dass das Universum oder die Menschen letztendlich algorithmisch sind. Ich denke eher, dass die Menschen, weil Algorithmen eine der zentralen Metaphern unserer Zeit sind, dies auf „alles ist ein Algorithmus“ projizieren. Genau wie damals dachten alle, das Universum sei eine große Newtonsche Maschine. Das ist es auch nicht.
@ user4894 würden Sie sich die Mühe machen, Ihr Argument in einer Antwort anzugeben? vor allem, warum wir nicht so eingeschränkt sind
Dies ist nur meine persönliche Meinung. Ich glaube nicht, dass wir algorithmisch sind. Aber heutzutage denken viele kluge Leute, dass wir es sind. Ich habe im Moment nicht viel hinzuzufügen.
@sanmai: Ich würde user4894 folgen. Die zentrale Metapher in Newtons Zeit war das „Uhrwerk“-Universum; und schau was daraus geworden ist. Heute ist es der „Algorithmus“. Wir sind endliche Wesen, aber das erfordert ein wenig Feingefühl. Zum Beispiel kann ich sechsstellig schreiben - 1000000 oder 200^200 oder 999^999. Die letzte Zahl ist erstaunlich groß – viel größer als alle Teilchen des Universums. Allerdings ist es immer noch viel kleiner als das Unendliche, sogar das erste;
Welche Bedeutung hat "verstanden" in dieser Frage? Ich kann sehen, dass es vom 2. bis zum letzten Satz entfernt wird, ohne die Auswirkung zu ändern. Ist Verständnis notwendig, um einen menschlichen Computer zu bauen? Ich sehe nicht, dass es unbedingt der Fall sein muss, insb. für jemanden, der von seiner Umwelt lernt.
@Dave hat Dinge gefunden, aus denen es verstanden wurde

Antworten (3)

Beginnen wir mit einer ziemlich offensichtlichen Tatsache: Menschliche Computer werden jeden Tag durch den Prozess der Geburt produziert. Ich sage dies nur, um zu betonen, dass diese Frage wirklich eine Frage ist, "unterscheiden sich von Menschen gemachte Artefakte in gewisser Weise grundlegend von Menschen selbst, die selbst durch einen Prozess hergestellt werden".

Für einen Materialisten ist die Antwort ein offensichtliches Nein; und daher gibt es im Prinzip keine Hindernisse für die Herstellung einer starken KI.

Für einen Dualisten ist die Situation offen: Wenn es einen Mechanismus gibt, durch den wir eine Seele dazu bringen können, eine von Menschen konstruierte Einheit zu bewohnen, dann könnten wir eine starke KI haben. Nur wenn wir Seelen haben und es etwas gibt, das uns daran hindert, die Bedingungen zu schaffen, unter denen eine Seele am Ende ein von Menschen geschaffenes Wesen bewohnen würde, gäbe es eine grundlegende Grenze.

Normalerweise denken wir an eine starke KI, die in einem Computer verkörpert ist. Was wäre, wenn wir künstliche Lebensformen biologisch konstruieren könnten? Wir können derzeit ganze Viren konstruieren, Kerne von Zelle zu Zelle verschieben, Hybride herstellen usw. Für mich ist es schwieriger zu argumentieren, dass sich diese Art von künstlichem biologischem System grundlegend von einem Menschen unterscheiden würde, wenn man so viel von seinem Entwicklungsprozess berücksichtigt würde genau die natürliche menschliche (oder andere tierische) Entwicklung nachahmen; Somit würden diese Arten von menschengemachten biologischen Systemen fast alle (alle?) der physischen Korrelate der Seele aufweisen, wären aber künstlich hergestellt worden.

Um die Möglichkeit einer starken KI zu leugnen, bedarf es einer Art transzendenter Seele, die nicht stark an Materie gekoppelt ist, mit all dem Gepäck, das das mit sich bringt (z. B. wie/warum interagieren Seelen überhaupt mit Materie)?

Kommentar:

Ich verwende Seele, um anzuzeigen, was auch immer die nicht-materielle(n) spirituelle(n) Essenz(en) in einer dualistischen Theorie entstehen. Ich versuche nicht anzudeuten, dass es notwendigerweise eine persönliche Essenz ist.

Jedes endliche physikalische System (z. B. ein menschliches Gehirn) kann von einem universellen Computer simuliert werden, der mit endlichen Mitteln arbeitet:

http://www.daviddeutsch.org.uk/wp-content/ItFromQubit.pdf .

So könnte man auf einem Computer eine Person simulieren, wenn man den entsprechenden Algorithmus verstünde. Grundsätzlich könnte es sein, dass das menschliche Gehirn auf einem Computer simuliert werden könnte, aber der zugehörige Algorithmus für niemanden nachvollziehbar und damit die Simulation nicht aufsetzbar ist. Dies erscheint unplausibel. Es muss so sein, dass jeder Algorithmus, den unser Gehirn ausführt, durch Variations- und Auswahlrunden so erstellt wurde, dass er in jeder Phase etwas Nützliches hervorbrachte. Es muss also eine Reihe von Problemen geben, die wir lösen könnten, die in jeder Phase zu nützlichen Produkten führen und am Ende KI hervorbringen würden. Warum sollten wir das nicht können? Es kann nicht nur eine Frage des Speichers oder der Geschwindigkeit oder Zuverlässigkeit von Berechnungen sein, da Computer dies für uns erledigen können. Ich sehe also nicht, was uns davon abhalten könnte, KI zu entwickeln.

'Legen die Grenzen der menschlichen Natur nahe, dass sie prinzipiell verstanden werden könnte?'

Ich denke schon, wenn Sie von einer "allgemeinen Verständigung" sprechen. Wie Laozi auf die Frage antwortet, woher er wusste, dass es so war? "Intuitiv." Natürlich haben wir heute die Chance auf ein besseres Verständnis, wenn wir die besten Erkenntnisse der Ethologie, Linguistik und dergleichen studieren, wenn unsere korrupte Gesellschaft unseren Blick auf die menschliche Natur noch nicht geblendet hat.

'könnten wir irgendwann 'einen menschlichen Computer' machen?'

Ich denke schon, aber ich würde eine Liste mit Gründen aufstellen, die das nicht tun.

  1. Es könnte unmöglich sein. Die Anzahl der Neuronen, die benötigt wird, um sich selbst zu verstehen, könnte größer sein als die tatsächliche Anzahl. Schlimmer ist, dass nicht alle Neuronen da sind, um zu „verstehen“. Wir könnten Maschinen mit mehr Neuronen als wir erschaffen, aber dann würden SIE verstehen, nicht wir – und uns wahrscheinlich zu Sklaven unserer eigenen Maschinen machen (sind wir das nicht schon? ;)

  2. Selbst wenn es möglich ist, ist es wünschenswert? Was könnten die schlimmsten Folgen sein? Es ist unmöglich vorherzusagen, aber ist es möglich, es zu vermeiden? Eine „technologische Singularität“ zeichnet sich ab, aber ich halte mich an die taoistischen Maxima des „ungeschnitzten Holzes“. Es gibt keine größere Eleganz als Einfachheit. Die Massen werden weitaus besser von einem sauberen Fluss bedient als von jedem digitalen Gerät. Wir brauchen mehr Natur und weniger Propaganda, nicht das Gegenteil. Der Versuch, immer größere und klügere und klügere Maschinen zu bauen, ist also überhaupt kein schöner Plan. Wir werden am Ende der Straße von ihnen zerstört werden (sind wir das nicht schon?).