Gehirn-Konstrukt

Ich lese gerade einen ewigen goldenen Zopf , ich bin schon bei mehreren langen Kapiteln über das Gehirn angelangt.

Er spricht über Neuronen und Symbole, was „Bedeutung“ ist, und es werden viele Hypothesen aufgestellt. Mir scheint vieles wie Annahmen über unseren Verstand von einem Verstand zu sein, der stark von seinem Wissen über Computer beeinflusst ist. Mich fasziniert es jedenfalls! Ich hatte den Eindruck, dass das Gehirn auf der Mikroebene (Neuronenebene, nicht Neutronenebene) einigermaßen gut verstanden wird, aber dass alles auseinanderfällt, wenn man versucht, es auf höheren Ebenen zu verstehen. (Dieses Buch wurde natürlich vor Jahrzehnten geschrieben)

Wie langsam/groß würde unser Modell des neuronalen Netzes des Gehirns angesichts der aktuellen elektrotechnischen Technologie und der sub-unendlichen Ressourcen werden? Die Neuronen im Modell sollten unser aktuelles biologisches Verständnis von ihnen widerspiegeln.

Größe/Geschwindigkeit sind alle freien Variablen in dieser Frage. Ich schätze, irgendetwas in der Nähe von 86 Milliarden Gehirnzellen zu tun, muss zu langsam / speicherintensiv sein, um es in Software im Allgemeinen nicht spezialisierter Supercomputer zu tun.

Mit Geschwindigkeit meine ich, wie lange ein „Gedanke“ im Vergleich zu einem Menschen brauchen würde, wenn das Netz irgendwie konstruiert und in Gang gesetzt würde und es tatsächlich zu einem „Ich“ würde. Wie machbar wäre es für einen Megakonzern der nahen Zukunft, sich einen solchen Versuch zu leisten?

Dies sieht aus wie das nächste, das wir haben ( telegraph.co.uk/technology/10567942/… )
Wenn Sie „Megakonzern der nahen Zukunft“ sagen, meinen Sie damit ein Unternehmen wie Google, IBM oder Tesla?
@Michael ja, ziemlich genau wie sie
Neuronale Netze werden seit langem mathematisch untersucht. Es gibt harte Grenzen für das, was sie tun können. Das Gehirn ist nicht wie ein neuronales Netz in dem Sinn strukturiert, den dieser Ausdruck in der Computertechnik hat. Das Gehirn funktioniert nicht wie ein digitaler Computer. Eine direkte Emulation des Gehirns ist technisch nicht machbar, da das Gehirn eine analoge Struktur ist, die aus hundert Milliarden analoger Kreuzottern („ Neuronen “) mit vielen Verbindungen besteht, und viel mehr unterstützende „ Glia “-Zellen, deren Rolle kaum verstanden wird .

Antworten (2)

Die Simulation des menschlichen Gehirns ist derzeit aus mehreren Gründen absolut nicht machbar (ich werde später darauf eingehen).

AFAIK: Die einzigen erfolgreichen Simulationen (was bedeutet: das simulierte Ergebnis stimmte mit dem überein, was das biologische neuronale Netzwerk tatsächlich bis zu einem vernünftigen Grad tat) wurden für sehr einfache Organismen durchgeführt, wenn das Gedächtnis hilft, war die komplexeste eine Schnecke mit mehreren tausend Neuronen.

Diese Simulationen wurden jedoch durchgeführt, um Wirkungen von Neurotransmittern und Neuronenmembranen zu simulieren; Simulierte Neuronennetzwerke (SNN, die Art von Neuronennetzwerken, die tatsächlich verwendet werden, um viele Probleme zu lösen, einschließlich der Erstellung von Wettervorhersagen) funktionieren auf eine völlig andere Weise, die die tatsächliche Funktionsweise eines Neurons auf eine "stilisierte" Weise abstrahiert, die nichts hat gemeinsam mit echtem Neuron-Betrieb. Sie sind Modelle des Neurons, die viele Details weglassen, um allgemeine Funktionsprinzipien zu erfassen.

Sie leisten gute Arbeit, genug, um beim Aufbau von KI wirklich nützlich zu sein

Sie sind stark genug, um Leute wie Elon Musk und Bill Gates mit perspektivischen Ergebnissen zu erschrecken.

Es gibt eine hitzige Debatte darüber, ob diese SNN wirklich genug Neuronen erfassen, die arbeiten, um die Replikation eines komplexen Gehirns zu ermöglichen.

Im Allgemeinen liegen die Probleme, die beim Versuch auftreten, das menschliche Gehirn zu simulieren, auf mehreren Ebenen:

  • Skalierungsprobleme
    • Es ist unklar, ob sich SNN wirklich vergleichbar mit biologischen Systemen verhalten.
    • Sehr große SNN enthalten mehrere hunderttausend simulierte Neuronen, unser Gehirn besteht aus fast hundert Milliarden Neuronen.
    • Jedes SN hat höchstens etwa 100 Verbindungen; Ein typisches Neuron hat mehr als 100.000 Verbindungen.
  • Physiologische Probleme:
    • Wir wissen nicht genau, wie Neuronen in unserem Gehirn miteinander verbunden sind.
    • Wir haben nur eine vage Vorstellung von der Lokalisierung von Funktionen.
    • Wir haben einige der Wechselwirkungen zwischen Neuronen und Neurotransmittern im Blutstrom verstanden.
    • Wir beginnen vor kurzem zu verstehen, dass Neuronen , die sich nicht im Gehirn befinden (wie Herzganglien), eine wichtige Rolle beim Langzeitgedächtnis spielen (wodurch dem Ausdruck „Lernen durch Herz“ eine völlig neue Bedeutung verliehen wird).
    • Eine ähnliche Bedeutung für die gesamte Gehirnfunktion haben abdominale Ganglien.
  • Philosophische Probleme:
    • Es gibt immer noch keinen allgemeinen Konsens (ich habe jedoch bestimmte Vorstellungen zu diesem Thema), ob die Gehirnbiochemie unser subjektives und objektives Verhalten vollständig erklären kann.
    • Es gibt immer noch keinen Konsens darüber, was wir eigentlich „Gewissen“ nennen.
    • Es besteht immer noch kein Konsens darüber, ob die Simulation die relevanten Teile dessen, was wir „Ich“ nennen, erfassen kann.

Das zitierte Buch von Hofstatter ist sehr interessant und hat mein Interesse an diesem Thema geweckt, aber es ist meiner Meinung nach zu sehr bemüht, eine philosophische These zu demonstrieren, und ist daher am Ende eher nicht überzeugend.

Anmerkung: Ich habe mein persönliches Verständnis der Angelegenheit auf einer kleinen Website zusammengefasst, für deren Pflege ich mir mehr Zeit wünschte. Dort finden Sie viele Verweise auf veröffentlichte wissenschaftliche Arbeiten.

Interessant! Mein Blickwinkel auf das ganze Thema bestand eher darin, das Verständnis dafür aufzugeben, wie es auf hoher Ebene funktionieren könnte, und nur das zu modellieren, was wir verstehen, so genau wie möglich. Aka alle Skalenprobleme, die Sie erwähnen, müssten gelöst werden. In dem Buch wird erwähnt, dass Turing über die kritische Masse in Bezug auf die Gehirnmasse spricht. Wenn ein SNN mit Milliarden und Abermilliarden von Konnektoren erstellt würde, würde vielleicht etwas Unvorhergesehenes entstehen
Genau das macht Musk, Gates und vielen anderen, einschließlich mir, Angst.

Ihr moderner Computer ist unglaublich schnell. Ein Quad Core 3Ghz i7 mit Hyperthreading führt mehr als 12e9 Berechnungen pro Sekunde durch. Eine GTX1080-GPU hat ~2600 Kerne bei ~1,6 GHz oder 4.160e9 Berechnungen pro Sekunde. Ihr Gehirn hingegen hat 100e9 Neuronen, die alle parallel arbeiten. Ein Neuron kann etwa 200 Mal pro Sekunde feuern. was uns eine Rate von 20.000,e9 Feuerungen (?) pro Sekunde gibt.

Wenn wir also sagen, dass es 100 Computeranweisungen (aus dem Hut gezogene Zahl) braucht, um ein Neuron zu simulieren, und unsere RAM-Anforderungen und Suchzeiten ignorieren. Wenn wir das auf eine einzelne GTX 1080 laden und die Neuronen irgendwie zu einem Gehirn zusammenbauen, wie schnell wird es laufen?

Auf einer einzelnen GTX1080 ist es 500-mal langsamer, RAM-Lookups zu ignorieren, wenn man von 100 Anweisungen pro Neuron ausgeht.

GTX1080 
      -> 4,000e9 instructions per second *  (1 artificial_neuron_triggers / 100 instructions)
      -> 40e9 artificial_neuron_triggers per second

HUMAN BRAIN
      -> 100e9 neurons * (200 neuron_triggers / 1 neuron) per second
      -> 20,000e9 neuron_triggers per second

So weit sind wir also nicht entfernt. Schnappen Sie sich ein paar hundert GPUs und Sie können in der gleichen Größenordnung liegen. Warum können wir (derzeit) kein Gehirn in Echtzeit mit einem Haufen superschneller GPUs simulieren?

Ich kann mir ein paar Gründe vorstellen (siehe auch die Antwort von ZioByte):

  1. Wir haben keine Ahnung, wie das Gehirn zusammenpasst, außer auf der Mikroebene (einzelne Neuronen) und einer Berührung auf der Makroebene (z. B. MRTs), oder wenn wir eine haben, habe ich noch nichts davon gehört (wenn Sie haben, Links posten oder diese Antwort bearbeiten). Obwohl wir in der Lage sein mögen, Netzwerke von Neuronen zu simulieren, können wir sie (soweit ich weiß) nicht zu einem menschlichen Gehirn zusammenbauen.
  2. Ein Neuron ist keine einzelne Berechnung. Eine GPU ist ein Vektorprozessor, und genau wie Ihre CPU kann sie Dinge wie das Addieren oder Multiplizieren von Zahlen tun. Was macht ein Neuron? Sie können Seiten über Seiten mit Mathematik finden, die das Verhalten eines einzelnen Neurons darstellen. Unnötig zu erwähnen, dass Sie eine Größenordnung oder mehr überschüssige Rechenleistung benötigen, um eine äquivalente Anzahl von Neuronen zu simulieren. Ich bin von 100 Anweisungen pro Neuronen-Trigger ausgegangen, aber ich vermute, dass das viel zu niedrig ist.
  3. Speichersuchen sind sehr langsam. Wenn Sie 100 Milliarden Neuronen haben, benötigen Sie 100 Gigabyte RAM, um den Systemstatus zu speichern (unter der Annahme eines einzelnen Bytes pro Neuron - Sie benötigen also mehr). Während dies mit Caching to Disk möglich ist, wird der Zugriff wahnsinnig langsam sein. Die langsamste Operation in den meisten Shadern in Computerspielen ist eine Textursuche. Ich bezweifle, dass dies beim Nachschlagen von Neuronenzuständen anders ist. In einem echten Gehirn speichert jedes Neuron seinen eigenen Zustand, aber wir haben keine 100 Milliarden L1-Caches (die wirklich schnellen) auf unserer GPU. Wir haben nur 2600 (einen pro Kern).
  4. Die Architektur ist völlig falsch. Selbst auf einer stark parallelisierten GPU läuft alles noch synchron, und Ihr Gehirn wird in einzelnen Schritten simuliert. Soweit ich weiß, hat ein Gehirn keine Uhr [Zitat erforderlich] und ist somit eine asynchrone Maschine. Es wird schwierig sein, dies in naher Zukunft zu ändern, und ich vermute, dass mit aktuellen Maschinenarchitekturen keine ordnungsgemäßen neuronalen Simulationen durchgeführt werden können.
  5. Samwise weist in den Kommentaren darauf hin, dass dies die Rolle der Synapsen ignoriert. Diese dürften den Rechenaufwand enorm erhöhen.
Einige der neuesten Forschungsergebnisse deuten darauf hin, dass sogar jede Synapse nützliche Berechnungen durchführen kann, und da es ~ 10.000 Synapsen pro Neuron gibt, erhöht dies die Grenze um das 10.000-fache (was die Grenze auf etwa 10e18 calcs insgesamt erhöht), kein Wunder noch niemand hat ein Gehirn gemacht ...