Wie können neuronale Netze mit lokalen Lernregeln ihre zukünftigen Inputs vorhersagen?

Lokale Lernregeln wie Contrastive Hebbian Learning , XCAL usw. basieren auf der Idee, Kanten zu verstärken, wenn die Neuronen, die sie verbinden, gleichzeitig feuern. Dies führt dazu, dass häufige Muster im Eingangsstrom in den Schichten codiert werden.

Ich verstehe, wie dies ähnliche Eingabemuster in erlernte Aktivierungszustände zieht. Ich sehe jedoch nicht, wie dieser Speicher verwendet werden kann, um die zukünftige Eingabe vorherzusagen. Wie ist es Neuronen möglich, zukünftige Eingabeströme unter lokalen Lernregeln vorherzusagen?

Anfangs- und Endzustände im hebbischen Lernen

Aus: Einführung Hebbisches Lernen (2005)

Was meinst du mit "zukünftiger Input"? Meinen Sie: Wenn Sie ein System hätten, dessen Eingabe ein Pixelraster und die Ausgabe die Zahl war, die die Pixel darstellten, wie verallgemeinert sich das Netzwerk von den Trainingsbeispielen zu den Testbeispielen?

Antworten (1)

siehe Lisman, JE und Otmakhova, NA (2001), Storage, Recall, and Novity Detection of Sequences by the Hippocampus: Elaborating on the SOCRATIC model to account for normal and anomal effects of dopaamine. Hippocampus, 11: 551–568. doi: 10.1002/hipo.1071: http://wwww.bio.brandeis.edu/lismanlab/pdf/socratic.pdf für einen vorgeschlagenen Mechanismus.

Kurz gesagt, lokale Lernregeln können Verbindungen zwischen Elementen herstellen, die nacheinander auftreten. Wenn Sie ein Netzwerk haben, das die Eingabe vervollständigt (dh identifiziert), können Sie diese Identifizierung an ein zweites Netzwerk weitergeben, das zeitliche Zuordnungen zwischen Elementen lernt.

Können Sie Ihre Sprache etwas verbessern und etwas mehr ins Detail gehen?
was möchtest du noch genauer?
Danke für die Bearbeitung. Das klingt sehr vernünftig. Zusammen mit STDP beantwortet dies meine (nicht sehr genaue) Frage.