Darstellungen negierter Sätze

Die folgende Frage ist ziemlich hypothetisch und nur um eine Vorstellung zu bekommen.

Nehmen Sie jedes Modell an, wie positive Vorschläge p werden aktiv (im Gegensatz zu synaptisch) in einem neuronalen Netz repräsentiert, zB "Die Katze saß auf der Matte". Vermutlich wird dies durch eine Art Feuern einiger Neuronen oder Neuronenanordnungen geschehen.

Ich frage mich, wie der entsprechende negative Satz ¬ p dargestellt werden könnte, zB "die Katze saß nicht auf der Matte". Wird es ein zusätzliches NOT-Neuron geben, das feuert? Werden die gleichen Neuronen im NOT-Modus feuern? Wird die Katze auf einer NICHT-Matte sitzen? Oder ganz anders. Oder werden solche Aussagen gar nicht vertreten, dh wir können nur „positiv denken“ und nur verbal berichten , dass wir das nicht gedacht oder gedacht haben p (was eine Art Meta-Bericht wäre)?

Welche Vorschläge gibt es zur Darstellung negierter Sätze?

Antworten (1)

Ein plausibler Kandidat dafür ist das Interneurons-Subnetzwerk.

Nehmen wir an, eine Entität kann grün und kalt sein. Es kann auch gelb und heiß sein, aber nicht kalt und heiß. Wir können also sagen, dass es für diese Art von Entitäten 2 unabhängige Variablen gibt, die ihren Zustand beschreiben. Wenn jetzt die Variable 'Farbe' auf den Wert "rot" gesetzt wird, bedeutet das die Negation aller anderen Werte dieser Variablen (nicht grün, nicht blau, ... unendlich viele). Die Frage ist nur, wie man das Konstrukt „Variable“ im Nervengewebe speichert?

Man kann alle möglichen Werte der Variablen sammeln und sie alle mit einem dichten lateralen Hemmkreis verbinden. Die Aktivierung eines Neurons innerhalb dieses Ensembles wird die Aktivierungen der anderen zerstören.

Und siehe da - wir haben jetzt ein gutes Instrument zum Auffinden von Fehlern in unserem Weltmodell! Wenn das Netzwerk die Repräsentationen einiger Entitäten durch laterale Hemmung verdrahtet hat, bedeutet dies, dass das Netzwerk eine Hypothese aufgestellt hat, dass diese Entitäten (in einem bestimmten Kontext) nur unterschiedliche Werte desselben treibenden Faktors sind. Wenn im nächsten Moment ein starkes Feedforward-Signal 2 Hauptneuronen innerhalb des Kreises aktiviert hat, war die Hypothese nicht korrekt. Das Netzwerk hat "Paradoxon" entdeckt.

Diese Erklärung ist aufgrund von 3 Tatsachen plausibel:

  1. Es gibt ein berühmtes Windradmuster im visuellen Kortex:Karten der Meinungsselektivität

Die obige Abbildung zeigt eine rekonstruierte Karte verschiedener Werte der Variablen "räumliche Orientierung" im visuellen Kortex. Sie sind in nicht zufälliger Reihenfolge angeordnet.

  1. Die Überlagerung dieser Karte mit hemmenden Neuronen zeigt, dass ein Interneuron mit unterschiedlichen "Werten" der räumlichen Orientierung arbeiten kann.hemmend
  2. Es gibt eine wissenschaftliche Behauptung, dass der zugrunde liegende Algorithmus in allen Teilen des Kortex derselbe ist (dh Unterschiede sind wahrscheinlicher in Hyperparametern als im Wesentlichen). Wir kennen den Algorithmus nicht (und ich behaupte nicht, dass meine Antwort richtig ist), aber Wissenschaftler sehen keine dramatischen Unterschiede in der Mikrobiologie von Gewebe in verschiedenen Kortexregionen. Wenn also eine "Variable-Wert"-Beziehung im am besten untersuchten Teil des Kortex (primärer) auftritt, dann haben wir wahrscheinlich Grund, solche Tendenzen in anderen Teilen zu erwarten.

Bildquelle - Neurobiology: Turning a corner in vision research,1999,Nature

Wie schön! Und wie lehrreich! Noch nie davon gehört (bzw. gesehen). Hat die wissenschaftliche Aussage, die Sie in Punkt 3 erwähnen, einen Namen (ich kann googeln)?
Ich bin mir über den Namen nicht sicher, aber es gab ein Experiment mit einem neugeborenen Kätzchen: Sie zerstörten seinen visuellen Kortex (bevor er durch synaptische Beschneidung spärlich verdrahtet wurde) und es wurde gezeigt, dass der Audiokortex des Kätzchens visuelle Funktionen implementiert hat. Damit das Kätzchen die Welt sieht. Dieser Fokus funktioniert natürlich nur bei neugeborenen Tieren.