Warum hat die Evolution Neuronen dazu gebracht, Spiking zu verwenden?

Ich werde offen sein und sagen, dass ich kein Biologe bin. Ich behaupte nicht, die Funktionsweise eines Neurons aus elektrischer/chemischer Sicht vollständig zu verstehen ... Ich schaue als Computerprogrammierer neugierig von außen nach innen.

Nun, die große Neuerung dieser Tage bei künstlichen neuronalen Netzwerken besteht darin, sie mit biologischer Präzision zu simulieren - das heißt, mit Spiking, das Netzwerk tatsächlich im euklidischen Raum zu platzieren, und alle möglichen anderen Leckereien (Schauen Sie sich das Human Brain Project an; es ist wirklich cool . Unser eigenes Gehirn ist berechenbar, vorausgesetzt, ein ausreichend leistungsfähiger Computer hat wahrscheinlich auch viele faszinierende und erschreckende philosophische Implikationen.), aber dies ist nicht das einzige Modell, das Menschen üblicherweise für neuronale Netze verwendet haben.

In der Vergangenheit waren mehrschichtige Perzeptrons das große Ding; Ich werde sie nicht weiter erklären, aber im Wesentlichen führt jedes Neuron einfach eine mathematische Funktion an seinen Eingaben aus und gibt sie dann aus. Es gibt kein Spiking im Sinne unserer Neuronen. Ein Neuron könnte seine Ausgabe auf unbestimmte Zeit auf fast 100% sprengen, und es gibt keinen objektiven Unterschied zwischen dem und 0% oder irgendwo anders.

Nun, ich bin irgendwie auf eine Tangente abgeschweift, aber was ich zu verstehen versuche, ist, warum dieses Verhalten nicht in dem Berechnungssystem beobachtet wird, das die Evolution über viele, viele Jahre hervorgebracht hat? Warum verwenden wir stattdessen Spiking-Neuronen? Wir haben stattdessen ein seltsames System entwickelt, bei dem Stacheln in Mustern, die wir noch nicht wirklich verstehen, über Ketten von Neuronen wandern, um das Verhalten zu erzeugen, das für das Überleben der Kreatur erforderlich ist. Meine Frage ist, warum wurde dies gegenüber etwas Ähnlichem wie mehrschichtigen Perzeptronen bevorzugt? Ist es energieeffizienter, ein Spiking-Modell zu verwenden? Das Gehirn verbraucht unverhältnismäßig viel Energie. Ich frage mich, ob es als Berechnungsmodell effektiver ist.

Nur um sicherzugehen, was du meinst, fragst du, warum die Neuronen nur in einem "An oder Aus"-Verfahren aktiviert werden und warum es keine Zwischenzustände gibt?
Entschuldige Nein; Ich frage mich, warum Neuronen mit Stacheln von jeder Kreatur mit einem Gehirn konsequent verwendet werden. Spiking zu bestimmten Zeiten, anstatt beispielsweise 50 % "Signal" für einen längeren Zeitraum oder ein anderes Verhaltensmuster zu übermitteln. Also nicht unbedingt binär, wie Sie es beschreiben, sondern Spiking selbst. Dies ist schwer zu beschreiben, ohne mehrschichtige Perzeptrons im Detail zu erklären ...
Besonders da Sie bereits über einen quantitativen Hintergrund verfügen, behandelt das Buch Spikes viele dieser Probleme aus informationstheoretischer Sicht.
Sie sollten sich darüber informieren, wie Neuronen funktionieren. Sie haben zugegeben, dass Sie das nicht wissen, aber es beantwortet direkt Ihre Frage.

Antworten (4)

Einer der vielen Vorteile eines Alles-oder-Nichts-Systems besteht darin, dass Ressourcen für Zeitmessungsereignisse eingespart werden können, die eine synchronisierte Zusammenarbeit zwischen vielen Zellen erfordern (wie Fortbewegung). Binäres Verhalten kann teilweise auch ein Nebeneffekt der Geschwindigkeit und der effizienten Informationsübertragung über große Entfernungen sein (was in erster Linie einer der großen Vorteile von Neuronen als Zellen ist).

Es sollte jedoch beachtet werden, dass Neuronen nicht universell binär sind. Es ist genauer zu sagen, dass Neuronen binäre Eigenschaften haben, die es Neuronen ermöglichen, sich auf binäre Weise zu verhalten (aber nicht alle Neuronen tun dies). Darüber hinaus unterliegen viele kontinuierliche (dh nicht-binäre) Prozesse der Erregbarkeitsschwelle des Neurons.

Eine Sache, die Sie meiner Meinung nach vermissen: Ein Perceptron-Modell und ein Spiking-Modell schließen sich nicht gegenseitig aus. Tatsächlich verwenden Menschen in Perceptrons normalerweise eine Sigmoidfunktion. Das ist kein Zufall: Es simuliert gewissermaßen eine Spitze. Wenn Sie einen Organismus wie C. elegans modellieren würden, dessen Neuronen keine Spikes haben (sondern "gestufte Aktionspotentiale" verwenden), würden Sie eine andere Art von Aktivierungsfunktion verwenden (übrigens, wenn Sie das Human Brain Project mögen, Sie sollten sich auch das Openworm- Projekt ansehen, das viel realistischer ist und bereits einige interessante Ergebnisse liefert ).

Also, zurück zum Punkt. Wenn Sie versuchen, Lernen und Gedächtnisbildung zu modellieren, haben Sie es oft mit Plastizität zu tun. Nur eine kurze Erklärung: Ein Neuron feuert ein Aktionspotential (AP) ab, wenn sein Transmembranpotential einen Grenzwert überschreitet. Das Potential selbst ändert sich aufgrund der Eingaben von anderen Neuronen. Aber alle Eingaben haben nicht das gleiche Gewicht. Nehmen wir an, Sie betrachten Neuron A, das Synapsen von den Neuronen B, C, D bekommt... Wenn B gleichzeitig mit C feuert, kann es ausreichen, um ein AP von A zu erzeugen. Aber auch in Kombination mit B oder C, D löst nicht genügend Transmembranpotentialvariationen aus, um ein AP zu erzeugen; Es muss genau zur gleichen Zeit wie E, F, G und H feuern, um genug "Feuerkraft" zu bekommen, um A zu aktivieren.

Wenn jedoch jedes Mal, wenn D feuert, A einen AP erhält (aufgrund der gleichzeitigen Aktivierung anderer eingehender Neuronen), dann könnte man sagen, dass D für A "nützlich" ist, und (abhängig von der Art des Neurons und anderen Parametern) das Gewicht von D ansteigen kann, so dass D nach einer Weile in der Lage ist, ein AP in A hervorzurufen, indem er einfach gleichzeitig mit jedem anderen ankommenden Neuron feuert. Das ist ein Plastizitätsphänomen. Beachten Sie, dass es sich hier um ein wirklich einfaches hypothetisches Beispiel handelt. Und auch, dass die Idee, dass Lernen aus Plastizität resultiert, immer mehr in Frage gestellt wird.

Wenn Sie also verstehen möchten, wie Lernen und Gedächtnis ablaufen, interessieren Sie sich vielleicht nur für die Gewichte der Verbindungen und wie sie sich in Abhängigkeit von der Aktivität des Netzwerks entwickeln. In diesem Fall ist ein Perceptron-Modell ein guter Weg.

Nun, die große Neuerung dieser Tage bei künstlichen neuronalen Netzen besteht darin, sie mit biologischer Präzision zu simulieren – das heißt, mit Spiking

Wie Sie bereits in Ihrer Frage erwähnt haben, geht es darum, ein Modell auszuwählen, das Sie verwenden werden (als Forscher, der versucht, das Gehirn zu verstehen). Dies versucht nicht , eine genaue Darstellung dessen zu geben, wie das Gehirn wirklich ist. Wenn Sie an den Gewichten der Verbindungen interessiert sind, können Sie einen Ansatz mit neuronalen Netzwerken verwenden (und dieser ist nicht veraltet ), und Sie interessieren sich nicht für einen einzelnen Ionenkanal auf der Membran eines Neurons. Aber alternativ können Sie Ihr Leben auch dem Verständnis der Struktur eines einzelnen Ionenkanals widmen und erfahren, wie einfache Details die gesamte Funktionsweise des Gehirns bestimmen können.

Projekte wie das Human Brain Project versuchen, ein "biologisch exaktes" Modell des Gehirns zu erstellen. Es geht also darum, die Spikes sowie die Netzwerkorganisation und einzelne Ionenkanäle zu modellieren. In diesem Fall müssen sie also keine Paradigmen wie künstliche neuronale Netze verwenden, da das Verhalten des Netzes ein Ergebnis der Modellierung der einzelnen Neuronen sein sollte: Das wäre eine emergente Reaktion . Sie haben jedoch nicht mehr die Vereinfachungen, die andere Modelle mit sich bringen, daher benötigen sie eine enorme Rechenleistung, und sie stehen auch vor neuen Problemen: Sie müssen beispielsweise allen einzelnen Parametern ihrer Modelle Werte zuweisen, von denen einige sind derzeit unbekannt, und könnte sogar überhaupt nicht existieren.

Ich denke, dies beantwortet Ihre Frage in dem Sinne, dass es nicht das Gehirn ist, das sich entwickelt hat, um ein Modell auszuwählen, sondern die Wissenschaftler, die versuchen, einen bestimmten Aspekt des Gehirns zu modellieren.

EDIT: Ich sehe tatsächlich, dass diese Frage ziemlich alt ist; Entschuldigung, es war ein Vorschlag auf der rechten Seite, der mich hierher geführt hat. Aber ich denke, meine Antwort kann noch einen Aspekt bringen, der in den anderen Antworten noch nicht erwähnt wurde. Ich hoffe also, Sie werden es sehen.

Die Verwendung von Spikes ist eine Mischung aus ihren rechnerischen Vorteilen und den Einschränkungen des biologischen Substrats, in dem sie implementiert sind:

  1. Sie können große Entfernungen mit hoher Geschwindigkeit zurücklegen, da sie von der Salzleitung profitieren können, die viel schneller als die Diffusion ist und über große Entfernungen aufrechterhalten werden kann. Ein digitales Signal ist weniger anfällig für Rauschen, was auch ein Grund dafür ist, dass unsere Computer digital arbeiten.
  2. Spikes können unter Verwendung chemischer Synapsen moduliert werden, die a) gerichtet sind b) das Signal verstärken können c) das Signal modulieren können d) das Signal sogar hemmen können. Analoge Spannungen müssen über elektrische Verbindungen übertragen werden, die keine Modulation zulassen.
  3. Die Frequenzcodierung (Signal liegt im Interspike-Intervall) hat einen größeren Dynamikbereich als die Spannungscodierung.
  4. Die Spitzenerzeugung kann als Nichtlinearität in der Übertragungsfunktion dienen
  5. Der Spike kann verwendet werden, um zeitliche Signale effizienter zu codieren, indem die Redundanz reduziert wird (nur Signaländerung).

Übrigens. Erwarten Sie nicht zu viel vom Human Brain Project - es wird viel geredet und keine Ergebnisse erzielt.

Es wäre toll, wenn Sie Ihrer Antwort einige Referenzen hinzufügen würden!
Meine Antwort ist eine Mischung aus Lehrbuchwissen und gesundem Menschenverstand. Es gibt nur sehr wenige Papiere, die breit genug sind, um einen der Gründe zu belegen.

Neuronen sind binär, indem sie entweder "feuern" oder "nicht feuern". Es gibt kein Zwischenprodukt, weil das neuronale Feuern (biochemisch) ein Lawinenprozess ist. Exzitatorische Trigger erhöhen das Membranpotential und inhibitorische Trigger senken es. Sobald die "Schwellenspannung" erreicht ist, leuchtet das Neuron auf und feuert. So werden "Entscheidungen" von Neuronen getroffen: Eingaben von vielen hemmenden und erregenden Neuronen werden summiert, und wenn die Summe über der Schwellenspannung liegt, feuert das betreffende Neuron. Um die Computersprache zu verwenden, ist ein Neuron ein logisches UND-Gatter mit Hunderten von Eingängen.

Lesen Sie den Wikipedia-Artikel über "Aktionspotentiale" für eine tiefergehende Diskussion.

Aber meine Frage ist, was genau der evolutionäre Fitnessvorteil der Verwendung dieses Mechanismus gegenüber einem anderen Mechanismus ist, der "nichtdiskreten Logikgattern" ähnlicher ist, wie er in mehrschichtigen Perzeptronen zu sehen ist? Liegt es einfach daran, dass Spiking die am einfachsten zu entwickelnde Methode war, und als die Gehirne komplexer wurden, blieben sie weiterhin von dieser Architektur abhängig? Ich verstehe meistens, wie Spiking-Neuronen funktionieren, zumindest aus mathematischer Sicht, nicht aus elektrochemischer Sicht (das muss ich nachlesen ...), aber ich denke nicht, dass das im Rahmen meiner Frage liegt. Tut mir leid, dass ich nicht klar bin.