Ich werde offen sein und sagen, dass ich kein Biologe bin. Ich behaupte nicht, die Funktionsweise eines Neurons aus elektrischer/chemischer Sicht vollständig zu verstehen ... Ich schaue als Computerprogrammierer neugierig von außen nach innen.
Nun, die große Neuerung dieser Tage bei künstlichen neuronalen Netzwerken besteht darin, sie mit biologischer Präzision zu simulieren - das heißt, mit Spiking, das Netzwerk tatsächlich im euklidischen Raum zu platzieren, und alle möglichen anderen Leckereien (Schauen Sie sich das Human Brain Project an; es ist wirklich cool . Unser eigenes Gehirn ist berechenbar, vorausgesetzt, ein ausreichend leistungsfähiger Computer hat wahrscheinlich auch viele faszinierende und erschreckende philosophische Implikationen.), aber dies ist nicht das einzige Modell, das Menschen üblicherweise für neuronale Netze verwendet haben.
In der Vergangenheit waren mehrschichtige Perzeptrons das große Ding; Ich werde sie nicht weiter erklären, aber im Wesentlichen führt jedes Neuron einfach eine mathematische Funktion an seinen Eingaben aus und gibt sie dann aus. Es gibt kein Spiking im Sinne unserer Neuronen. Ein Neuron könnte seine Ausgabe auf unbestimmte Zeit auf fast 100% sprengen, und es gibt keinen objektiven Unterschied zwischen dem und 0% oder irgendwo anders.
Nun, ich bin irgendwie auf eine Tangente abgeschweift, aber was ich zu verstehen versuche, ist, warum dieses Verhalten nicht in dem Berechnungssystem beobachtet wird, das die Evolution über viele, viele Jahre hervorgebracht hat? Warum verwenden wir stattdessen Spiking-Neuronen? Wir haben stattdessen ein seltsames System entwickelt, bei dem Stacheln in Mustern, die wir noch nicht wirklich verstehen, über Ketten von Neuronen wandern, um das Verhalten zu erzeugen, das für das Überleben der Kreatur erforderlich ist. Meine Frage ist, warum wurde dies gegenüber etwas Ähnlichem wie mehrschichtigen Perzeptronen bevorzugt? Ist es energieeffizienter, ein Spiking-Modell zu verwenden? Das Gehirn verbraucht unverhältnismäßig viel Energie. Ich frage mich, ob es als Berechnungsmodell effektiver ist.
Einer der vielen Vorteile eines Alles-oder-Nichts-Systems besteht darin, dass Ressourcen für Zeitmessungsereignisse eingespart werden können, die eine synchronisierte Zusammenarbeit zwischen vielen Zellen erfordern (wie Fortbewegung). Binäres Verhalten kann teilweise auch ein Nebeneffekt der Geschwindigkeit und der effizienten Informationsübertragung über große Entfernungen sein (was in erster Linie einer der großen Vorteile von Neuronen als Zellen ist).
Es sollte jedoch beachtet werden, dass Neuronen nicht universell binär sind. Es ist genauer zu sagen, dass Neuronen binäre Eigenschaften haben, die es Neuronen ermöglichen, sich auf binäre Weise zu verhalten (aber nicht alle Neuronen tun dies). Darüber hinaus unterliegen viele kontinuierliche (dh nicht-binäre) Prozesse der Erregbarkeitsschwelle des Neurons.
Eine Sache, die Sie meiner Meinung nach vermissen: Ein Perceptron-Modell und ein Spiking-Modell schließen sich nicht gegenseitig aus. Tatsächlich verwenden Menschen in Perceptrons normalerweise eine Sigmoidfunktion. Das ist kein Zufall: Es simuliert gewissermaßen eine Spitze. Wenn Sie einen Organismus wie C. elegans modellieren würden, dessen Neuronen keine Spikes haben (sondern "gestufte Aktionspotentiale" verwenden), würden Sie eine andere Art von Aktivierungsfunktion verwenden (übrigens, wenn Sie das Human Brain Project mögen, Sie sollten sich auch das Openworm- Projekt ansehen, das viel realistischer ist und bereits einige interessante Ergebnisse liefert ).
Also, zurück zum Punkt. Wenn Sie versuchen, Lernen und Gedächtnisbildung zu modellieren, haben Sie es oft mit Plastizität zu tun. Nur eine kurze Erklärung: Ein Neuron feuert ein Aktionspotential (AP) ab, wenn sein Transmembranpotential einen Grenzwert überschreitet. Das Potential selbst ändert sich aufgrund der Eingaben von anderen Neuronen. Aber alle Eingaben haben nicht das gleiche Gewicht. Nehmen wir an, Sie betrachten Neuron A, das Synapsen von den Neuronen B, C, D bekommt... Wenn B gleichzeitig mit C feuert, kann es ausreichen, um ein AP von A zu erzeugen. Aber auch in Kombination mit B oder C, D löst nicht genügend Transmembranpotentialvariationen aus, um ein AP zu erzeugen; Es muss genau zur gleichen Zeit wie E, F, G und H feuern, um genug "Feuerkraft" zu bekommen, um A zu aktivieren.
Wenn jedoch jedes Mal, wenn D feuert, A einen AP erhält (aufgrund der gleichzeitigen Aktivierung anderer eingehender Neuronen), dann könnte man sagen, dass D für A "nützlich" ist, und (abhängig von der Art des Neurons und anderen Parametern) das Gewicht von D ansteigen kann, so dass D nach einer Weile in der Lage ist, ein AP in A hervorzurufen, indem er einfach gleichzeitig mit jedem anderen ankommenden Neuron feuert. Das ist ein Plastizitätsphänomen. Beachten Sie, dass es sich hier um ein wirklich einfaches hypothetisches Beispiel handelt. Und auch, dass die Idee, dass Lernen aus Plastizität resultiert, immer mehr in Frage gestellt wird.
Wenn Sie also verstehen möchten, wie Lernen und Gedächtnis ablaufen, interessieren Sie sich vielleicht nur für die Gewichte der Verbindungen und wie sie sich in Abhängigkeit von der Aktivität des Netzwerks entwickeln. In diesem Fall ist ein Perceptron-Modell ein guter Weg.
Nun, die große Neuerung dieser Tage bei künstlichen neuronalen Netzen besteht darin, sie mit biologischer Präzision zu simulieren – das heißt, mit Spiking
Wie Sie bereits in Ihrer Frage erwähnt haben, geht es darum, ein Modell auszuwählen, das Sie verwenden werden (als Forscher, der versucht, das Gehirn zu verstehen). Dies versucht nicht , eine genaue Darstellung dessen zu geben, wie das Gehirn wirklich ist. Wenn Sie an den Gewichten der Verbindungen interessiert sind, können Sie einen Ansatz mit neuronalen Netzwerken verwenden (und dieser ist nicht veraltet ), und Sie interessieren sich nicht für einen einzelnen Ionenkanal auf der Membran eines Neurons. Aber alternativ können Sie Ihr Leben auch dem Verständnis der Struktur eines einzelnen Ionenkanals widmen und erfahren, wie einfache Details die gesamte Funktionsweise des Gehirns bestimmen können.
Projekte wie das Human Brain Project versuchen, ein "biologisch exaktes" Modell des Gehirns zu erstellen. Es geht also darum, die Spikes sowie die Netzwerkorganisation und einzelne Ionenkanäle zu modellieren. In diesem Fall müssen sie also keine Paradigmen wie künstliche neuronale Netze verwenden, da das Verhalten des Netzes ein Ergebnis der Modellierung der einzelnen Neuronen sein sollte: Das wäre eine emergente Reaktion . Sie haben jedoch nicht mehr die Vereinfachungen, die andere Modelle mit sich bringen, daher benötigen sie eine enorme Rechenleistung, und sie stehen auch vor neuen Problemen: Sie müssen beispielsweise allen einzelnen Parametern ihrer Modelle Werte zuweisen, von denen einige sind derzeit unbekannt, und könnte sogar überhaupt nicht existieren.
Ich denke, dies beantwortet Ihre Frage in dem Sinne, dass es nicht das Gehirn ist, das sich entwickelt hat, um ein Modell auszuwählen, sondern die Wissenschaftler, die versuchen, einen bestimmten Aspekt des Gehirns zu modellieren.
EDIT: Ich sehe tatsächlich, dass diese Frage ziemlich alt ist; Entschuldigung, es war ein Vorschlag auf der rechten Seite, der mich hierher geführt hat. Aber ich denke, meine Antwort kann noch einen Aspekt bringen, der in den anderen Antworten noch nicht erwähnt wurde. Ich hoffe also, Sie werden es sehen.
Die Verwendung von Spikes ist eine Mischung aus ihren rechnerischen Vorteilen und den Einschränkungen des biologischen Substrats, in dem sie implementiert sind:
Übrigens. Erwarten Sie nicht zu viel vom Human Brain Project - es wird viel geredet und keine Ergebnisse erzielt.
Neuronen sind binär, indem sie entweder "feuern" oder "nicht feuern". Es gibt kein Zwischenprodukt, weil das neuronale Feuern (biochemisch) ein Lawinenprozess ist. Exzitatorische Trigger erhöhen das Membranpotential und inhibitorische Trigger senken es. Sobald die "Schwellenspannung" erreicht ist, leuchtet das Neuron auf und feuert. So werden "Entscheidungen" von Neuronen getroffen: Eingaben von vielen hemmenden und erregenden Neuronen werden summiert, und wenn die Summe über der Schwellenspannung liegt, feuert das betreffende Neuron. Um die Computersprache zu verwenden, ist ein Neuron ein logisches UND-Gatter mit Hunderten von Eingängen.
Lesen Sie den Wikipedia-Artikel über "Aktionspotentiale" für eine tiefergehende Diskussion.
Chris
TND
jonska
Konrad Rudolf