Ich lese gerade einen ewigen goldenen Zopf , ich bin schon bei mehreren langen Kapiteln über das Gehirn angelangt.
Er spricht über Neuronen und Symbole, was „Bedeutung“ ist, und es werden viele Hypothesen aufgestellt. Mir scheint vieles wie Annahmen über unseren Verstand von einem Verstand zu sein, der stark von seinem Wissen über Computer beeinflusst ist. Mich fasziniert es jedenfalls! Ich hatte den Eindruck, dass das Gehirn auf der Mikroebene (Neuronenebene, nicht Neutronenebene) einigermaßen gut verstanden wird, aber dass alles auseinanderfällt, wenn man versucht, es auf höheren Ebenen zu verstehen. (Dieses Buch wurde natürlich vor Jahrzehnten geschrieben)
Wie langsam/groß würde unser Modell des neuronalen Netzes des Gehirns angesichts der aktuellen elektrotechnischen Technologie und der sub-unendlichen Ressourcen werden? Die Neuronen im Modell sollten unser aktuelles biologisches Verständnis von ihnen widerspiegeln.
Größe/Geschwindigkeit sind alle freien Variablen in dieser Frage. Ich schätze, irgendetwas in der Nähe von 86 Milliarden Gehirnzellen zu tun, muss zu langsam / speicherintensiv sein, um es in Software im Allgemeinen nicht spezialisierter Supercomputer zu tun.
Mit Geschwindigkeit meine ich, wie lange ein „Gedanke“ im Vergleich zu einem Menschen brauchen würde, wenn das Netz irgendwie konstruiert und in Gang gesetzt würde und es tatsächlich zu einem „Ich“ würde. Wie machbar wäre es für einen Megakonzern der nahen Zukunft, sich einen solchen Versuch zu leisten?
Die Simulation des menschlichen Gehirns ist derzeit aus mehreren Gründen absolut nicht machbar (ich werde später darauf eingehen).
AFAIK: Die einzigen erfolgreichen Simulationen (was bedeutet: das simulierte Ergebnis stimmte mit dem überein, was das biologische neuronale Netzwerk tatsächlich bis zu einem vernünftigen Grad tat) wurden für sehr einfache Organismen durchgeführt, wenn das Gedächtnis hilft, war die komplexeste eine Schnecke mit mehreren tausend Neuronen.
Diese Simulationen wurden jedoch durchgeführt, um Wirkungen von Neurotransmittern und Neuronenmembranen zu simulieren; Simulierte Neuronennetzwerke (SNN, die Art von Neuronennetzwerken, die tatsächlich verwendet werden, um viele Probleme zu lösen, einschließlich der Erstellung von Wettervorhersagen) funktionieren auf eine völlig andere Weise, die die tatsächliche Funktionsweise eines Neurons auf eine "stilisierte" Weise abstrahiert, die nichts hat gemeinsam mit echtem Neuron-Betrieb. Sie sind Modelle des Neurons, die viele Details weglassen, um allgemeine Funktionsprinzipien zu erfassen.
Sie leisten gute Arbeit, genug, um beim Aufbau von KI wirklich nützlich zu sein
Sie sind stark genug, um Leute wie Elon Musk und Bill Gates mit perspektivischen Ergebnissen zu erschrecken.
Es gibt eine hitzige Debatte darüber, ob diese SNN wirklich genug Neuronen erfassen, die arbeiten, um die Replikation eines komplexen Gehirns zu ermöglichen.
Im Allgemeinen liegen die Probleme, die beim Versuch auftreten, das menschliche Gehirn zu simulieren, auf mehreren Ebenen:
Das zitierte Buch von Hofstatter ist sehr interessant und hat mein Interesse an diesem Thema geweckt, aber es ist meiner Meinung nach zu sehr bemüht, eine philosophische These zu demonstrieren, und ist daher am Ende eher nicht überzeugend.
Anmerkung: Ich habe mein persönliches Verständnis der Angelegenheit auf einer kleinen Website zusammengefasst, für deren Pflege ich mir mehr Zeit wünschte. Dort finden Sie viele Verweise auf veröffentlichte wissenschaftliche Arbeiten.
Ihr moderner Computer ist unglaublich schnell. Ein Quad Core 3Ghz i7 mit Hyperthreading führt mehr als 12e9 Berechnungen pro Sekunde durch. Eine GTX1080-GPU hat ~2600 Kerne bei ~1,6 GHz oder 4.160e9 Berechnungen pro Sekunde. Ihr Gehirn hingegen hat 100e9 Neuronen, die alle parallel arbeiten. Ein Neuron kann etwa 200 Mal pro Sekunde feuern. was uns eine Rate von 20.000,e9 Feuerungen (?) pro Sekunde gibt.
Wenn wir also sagen, dass es 100 Computeranweisungen (aus dem Hut gezogene Zahl) braucht, um ein Neuron zu simulieren, und unsere RAM-Anforderungen und Suchzeiten ignorieren. Wenn wir das auf eine einzelne GTX 1080 laden und die Neuronen irgendwie zu einem Gehirn zusammenbauen, wie schnell wird es laufen?
Auf einer einzelnen GTX1080 ist es 500-mal langsamer, RAM-Lookups zu ignorieren, wenn man von 100 Anweisungen pro Neuron ausgeht.
GTX1080
-> 4,000e9 instructions per second * (1 artificial_neuron_triggers / 100 instructions)
-> 40e9 artificial_neuron_triggers per second
HUMAN BRAIN
-> 100e9 neurons * (200 neuron_triggers / 1 neuron) per second
-> 20,000e9 neuron_triggers per second
So weit sind wir also nicht entfernt. Schnappen Sie sich ein paar hundert GPUs und Sie können in der gleichen Größenordnung liegen. Warum können wir (derzeit) kein Gehirn in Echtzeit mit einem Haufen superschneller GPUs simulieren?
Ich kann mir ein paar Gründe vorstellen (siehe auch die Antwort von ZioByte):
Pyrozug
Benutzer
Adam
AlexP