Kann der Verarbeitungsaufwand für Teilaufgaben in neuronalen Netzen gemessen werden?

Oft hörte ich Aussagen wie:

80 % Ihrer Gehirnverarbeitung berechnet die Wirkung der Schwerkraft

oder ähnlich:

Sie nutzen nur 20 % Ihrer Gehirnleistung

Meine Frage bezieht sich nicht auf die Wahrheit dieser Aussagen, aber wenn sie wohlgeformt sind: Können wir die „Verarbeitung“ im Gehirn (oder ein ausreichend kompliziertes künstliches neuronales Netz) messen, um zu quantifizieren, wie viel der Verarbeitungsressourcen einem bestimmten Sub zugewiesen werden -Routinen?

Als Beispiel dafür, wann dies in einem anderen Bereich machbar ist: Betrachten Sie einen Computer mit einer Standard-Von-Neumann-Architektur. In diesem Fall können wir feststellen, wie viel Verarbeitung in die Unterroutine geht, indem wir einfach die Anzahl der Schritte zählen, die jede Unterroutine im Prozessor hält. Dieses einfache Zählen ist jedoch nur durch zwei Besonderheiten möglich:

  1. Es gibt einen klaren zentralen Prozessor, und Daten werden von nichts anderem transformiert.
  2. Es gibt eine klare Dualität zwischen Software und Hardware, die es uns ermöglicht, zu erkennen, wann einer bestimmten Unterroutine (Software) Zugriff auf den Prozessor (Hardware) gewährt wird.

Beide Eigenschaften fehlen in einem Computer mit neuronaler Architektur. Wie können wir die Ressourcen messen, die ein Computer mit neuronaler Architektur (Beispiel: das Gehirn) für Teilaufgaben aufwendet?


Anmerkungen

Ich interessiere mich für Einstellungen, bei denen es keine offensichtliche Lokalisierung von Teilaufgaben gibt. Also eine Antwort wie:

Wir können die Menge an Ressourcen messen, die für die Erkennung von Gesichtern verwendet werden, indem wir uns die metabolische Aufnahme des spindelförmigen Gesichtsbereichs ansehen.

Ist für mich nicht interessant, da es nur für Teilaufgaben gilt, die zufällig spezielle Bereiche haben. Wenn es natürlich ein Argument gibt, dass jede vernünftige (oder eingeschränktere: menschenähnliche) neuronale Architektur ihre Berechnungen unterteilen muss , dann würde ich das gerne hören. Dem Antwortenden bleibt jedoch die Aufgabe übrig, zu erklären, wie die Gruppe von Neuronen identifiziert werden kann, die einer bestimmten Unteraufgabe zugeordnet werden sollte.

Antworten (1)

Nun, erstens, was sagen diese Aussagen wirklich aus? Wie misst man „Verarbeitung“ oder „Leistung“ in Bezug auf das Gehirn? Für einen Elektrotechniker, der in der Kommunikation arbeitet, ist es einfach: Sie nehmen einfach das Quadrat der Amplitude des Signals (Signalleistung) oder zählen die Anzahl der Befehle pro Sekunde (Rechenleistung). Aber das ist die Disziplin, in der Rechenleistung definiert wird; Eine Analogie zu einem Gehirn zu machen bringt viele Vorbehalte mit sich. Was ist eine Anweisung? In wie viele kleine Anweisungen können Sie eine Anweisung aufteilen? Wo möchten Sie die Grenze in einem Farbspektrum ziehen, das Orange von Gelb trennt? Oder möchten Sie mehr Linien zeichnen und dunkles und helles Gelb haben? Oder noch mehr Linien...?

Hans Moravec, ein Forscher für maschinelle Intelligenz, ist berühmt für seine Vergleiche von Technologie mit der Verarbeitungsleistung von Organismen. Hier erklärt er ein wenig, wie er auf seine Zahlen kommt, aber sie sind wirklich nicht zufriedenstellend für mich. Er scheint ein Beispiel (die Netzhaut) zu nehmen und es danach zu beurteilen, was es empirisch mit einem Bild machen kann, und dann von dort auf den Rest des Gehirns zu extrapolieren. Dies berücksichtigt also nur eine einzige Netzwerktopologie in einem System, das Millionen weiterer Variationen in der Topologie aufweist.

Das Hauptproblem, über das sich Biologen normalerweise beschweren, wenn Menschen die Computerwissenschaftsanalogie für Gehirne verwenden, ist, dass Stoffwechsel und Funktionen zu eng miteinander verbunden sind, um sie leicht voneinander zu trennen. Funktionsmechanismen können als Verhandlungen zwischen molekularen Netzwerken (einschließlich genetischer Transkription) zusätzlich zu den elektrischen Signalen auftreten, die Elektroingenieure und Informatiker im Allgemeinen als "Verarbeitung" betrachten.

Dies zeigt sich besonders in den molekularen Netzwerken von Glutamin, Gaba und Adenosin (dh die Transmitter sind durch ATP und den Krebb-Zyklus eng an den Stoffwechsel gekoppelt). Viele neuere Beweise haben auch einen größeren Schwerpunkt auf Astrozyten gelegt. Dieser Aufsatz handelt von Epilepsie, nimmt aber in der Einleitung einige Zeit in Anspruch, um Ideen über Astrozyten und den Gehirnstoffwechsel samt Referenzen zu entwickeln. Das Material zum Gehirnstoffwechsel ist typisch für jedes Lehrbuch der Neurobiologie; Die Beteiligung von Astrozyten ist eine neuere Forschungsrichtung. Es gibt auch noch viel Forschung zu molekularen Mechanismen des Gedächtnisses .

Es gab alle Arten von Messungen zur Verarbeitungsleistung, einschließlich auf genetischer Ebene, aber alle diese Messungen machen eine Annahme darüber, was ein Bit ist, indem sie biologische Subsysteme in zwei Zustände aufteilen (dies, 1 und 0). Aber später wird jemand feststellen, dass es tatsächlich einen dritten signifikanten Funktionszustand gab. Es geht also darum, wo die Leute Grenzen ziehen wollen.

Ein weiteres Problem (jetzt eher auf der Makroebene) besteht darin, dass dieselbe Aufgabe unterschiedliche Verarbeitungsanforderungen hat, je nachdem, wie robust das interne Modell des Organismus die Außenwelt approximiert und vorhersagt. Eine Aufgabe, bei der Sie wissen, was Sie zu erwarten haben, wird also erheblich weniger "Rechenleistung" benötigen als eine, bei der Ihre Erwartungen nicht erfüllt werden. Karl Friston schrieb eine interessante Übersicht, in der er einen Modellierungsrahmen vorschlug, der helfen könnte, dies zu erklären.