Was ist über die Informationen bekannt, die innerhalb des Neocortex nach oben weitergegeben werden?

Der Neokortex verarbeitet wahrscheinlich spärliche Repräsentationen in einer Hierarchie, wobei Informationen in der Nähe des rohen Sensoreingangs auf niedrigeren Ebenen erscheinen und abstrakte Konzepte auf höheren Ebenen erscheinen. Ich interessiere mich jedoch für die genaue Art der Informationen, die nach oben weitergegeben werden.

  1. Es gibt einige Gating-Mechanismen im Neokortex. Ich könnte mir vorstellen, dass sie verhindern, dass offensichtliche Informationen weitergegeben werden. Zum Beispiel, da es bereits gemeldet wurde und sich nicht geändert hat. Ähnlich wie Mitarbeiter innerhalb von Unternehmenshierarchien melden denselben Status nur einmal.
  2. Ebenso wäre es sinnvoll, Informationen weiterzugeben, die eine untere Schicht nicht versteht und nicht selbst verarbeiten kann. Dies wäre auch vergleichbar mit Arbeitnehmern in einem Unternehmen, die ihre Manager um Entscheidungen bitten, die sie nicht treffen können.
  3. Wenn die Planung innerhalb der Hierarchie des Neokortex erfolgt, könnten höhere Schichten Optionen auf höheren Ebenen weitergeben, damit die niedrigeren Ebenen sie entfalten und simulieren können. In diesem Fall kann das Ergebnis später weitergegeben werden.
  4. Attraktormuster, die kontinuierliche Eingabeströme codieren, treten wahrscheinlich innerhalb der Ebenen der Hierarchie auf. Ich könnte mir vorstellen, dass sich die Art der nach oben gesendeten Informationen ändert, wenn sich ein Niveau in einem stabilen Muster einpendelt.

Gibt es Beweise für oder gegen diese Vermutungen? Was wissen Sie sonst noch über die Natur von Informationen, die innerhalb des Neocortex weitergegeben werden?

Re: 1., meinst du so etwas wie Vorhersagen von einem agranularen Neokortex, der eingehende sensorische Eingaben "wegerklärt" (verantwortlich für Phänomene wie Wiederholungsunterdrückung)?
@mrt Gibt es dazu eine Theorie? Ich denke, es wäre sinnvoll, wenn eine Ebene nur das nach oben schickt, was aus den Top-Down-Informationen nicht erklärt werden kann.
Ich denke an standardmäßige prädiktive Codierungsmodelle (z. B. Clark, 2013 ), bei denen Vorhersagen von einem granularen, tiefen Kortex (niedrigdimensional; oberste Hierarchieebene) nach oben fließen und Vorhersagefehler von granularen, oberflächlichen Schichten (hochdimensional; unterste Ebene) nach unten fließen Hierarchie) (z. B. Chanes & Barrett, 2015 ). Aber ich bin mir nicht sicher, ob das hilfreich ist oder nicht! :)
@mrt Das hilft sehr.

Antworten (1)

Deine Vermutung 1 klingt im Grunde nach Gewöhnung:

https://en.wikipedia.org/wiki/Habituation

Gemäß Ihrer Klarstellung in Ihrem Kommentar klingt 2 so, als würden Sie im Allgemeinen über die Rolle von Vorhersagefehlern beim Lernen sprechen. Daran wird viel gearbeitet. Neuronale Netzwerkmodelle lernen im Allgemeinen, indem sie die Verbindungsstärken als Reaktion auf Fehler modifizieren. Der bekannteste Algorithmus dafür ist als Backpropagation bekannt . Dies ist zwar ein Fehlersignal, das sich in einem Netzwerk ausbreitet, nicht wie Sie vorgeschlagen haben. Es gibt auch das Rescorla-Wagner- Lernmodell, ein weiteres Beispiel für fehlergesteuertes Lernen.

3 klingt nach Top-Down-Verarbeitung:

https://en.wikipedia.org/wiki/Top-down_and_bottom-up_design#Neuroscience_and_psychology

In Bezug auf 4 setzen sich neuronale Feuermuster definitiv in Attraktoren ab. Dies wurde ziemlich ausführlich modelliert:

http://www.scholarpedia.org/article/Attractor_network

Danke für deine Antwort. Mit dem zweiten Punkt bezog ich mich auf eine Art Überraschung oder Fehlvorhersage der nächsten Eingabe. Ist irgendetwas über diese Eingaben oder ihre nach oben zugeführten Vorhersagefehlerterme bekannt? Allgemeiner suchte ich nach einer Übersicht oder einem Überblick darüber, was über die nach oben weitergegebenen Informationen bekannt ist. Kennst du eine Quelle dafür?
Ah, ich werde meine Antwort mit etwas darüber bearbeiten.
Ich komme vom maschinellen Lernen, aber die Fehler-Backpropagation scheint biologisch unplausibel zu sein. Ich kenne auch CHL, XCAL usw. Aber bevor ich in Lernregeln eintauche, interessiert mich, welche Informationen zwischen den Ebenen fließen. Beeinflusst der lokale Vorhersagefehler auf einer Ebene die Informationen, die nach oben weitergegeben werden?
Ja, ich habe auch von einem meiner Professoren gehört, der selbst Konnektionist ist, dass es eine Herausforderung war, eine biologische Basis für Backprop zu finden. Ich bin mir bei Ihrer Frage zu Fehlern, die sich auf den Informationsfluss auswirken, nicht sicher.
@danijar, übrigens, wenn dir meine Antwort gefällt, kannst du sie "akzeptieren", damit ich diese süßen, süßen Punkte bekomme?
Vielen Dank. Ich werde Ihre Antwort in ein paar Tagen akzeptieren. Ich möchte nur warten, ob jemand einen allgemeineren Überblick geben könnte (letzter Satz in der Frage).