Interpretation & tatsächliches Ergebnis des Mythos „10 % Ihres Gehirns“ [Duplikat]

Es ist allgemein bekannt, dass der weit verbreitete Mythos, dass ein Individuum nur 10 % seines Gehirns nutzt, … nun ja, ein Mythos ist. Ich hatte eine Frage zu einer möglichen Interpretation dieser Idee und eine Folgefrage zu dem Ergebnis dieser Interpretation.

Nachdem wir einige Zeit mit computergestützten neuronalen Netzwerken verbracht haben, scheint es, dass zu jeder Zeit ein kleiner Prozentsatz der Neuronen tatsächlich feuert. Alle Neuronen haben das Potenzial, zu feuern, und werden wahrscheinlich irgendwann in der Ausführung feuern, aber aufgrund der Effizienz werden nur sehr wenige für eine bestimmte Funktion benötigt. Dies ist meine Interpretation dessen, was ich bisher gesehen habe. Gilt diese Interpretation für die Aktivität von Neuronen im Gehirn?

Wenn dies zutrifft, was würde passieren, wenn 90-100% der Neuronen jederzeit feuern würden? Ich gehe davon aus, dass dies ein großer Nachteil für denjenigen sein würde, dem dies passiert ist. Epilepsie? Überhitzung? Würde der Körper überarbeitet werden und in einen Schockzustand geraten?

Alle Neuronen in deinem Gehirn feuern die ganze Zeit. Der größte Teil dieses Feuerwerks, sagen wir mal 90 %, dient der Aufrechterhaltung grundlegender Funktionen (Sie, Ihr Gehirn, Kontrolle über Ihren Körper). Die 10% Pause können Sie nutzen, um an etwas zu denken, zB an Ihr Gehirn. Aber ich bin kein Experte...
Hmm... also würden alle Ihre unwillkürlichen Funktionen aufhören, wenn Sie alle Neuronen zum Denken umleiten würden? Sie müssten also an ein Beatmungsgerät angeschlossen werden, IV, weil Sie Ihr Essen nicht verdauen könnten usw.?
Das wird nicht funktionieren, aber wenn, dann würde ich wetten, ja. Vielleicht interessiert es Sie: Ich habe mal eine Antwort auf meine Frage „Wie viele Kalorien verbrennen wir, wenn wir versuchen, mathematische Beweise zu verstehen?“ bekommen. Die kurze Antwort war: Nicht viele ...
Der Vergleich mit neuronalen Netzen ist genial. Bei den Implementierungen von neuronalen Netzen, an denen ich arbeite, setze ich jedoch Rückkopplungsschleifen wirksam ein und vermeide Rückkopplungsschleifen (wie das menschliche Gehirn) nicht, reduziere ich lediglich die Intensität von Rückkopplungsschleifen. Ihre Analogie scheint zu dem zu passen, was ich tue. Ich bin mir ehrlich gesagt nicht sicher, ob irgendein System (auch Quantensystem) eine Rückkopplungsschleife unabhängig von der Rechenleistung "vollgasen" könnte (es könnte es wahrscheinlich schlimmer machen, je mehr Rechenleistung vorhanden ist). Ich kann nicht mit Neuronen sprechen, aber *fragen Sie in Bezug auf Neurologie oder neuronale Netze?

Antworten (1)

Es ist richtig, dass nur ein kleiner Prozentsatz der Neuronen ihre Aktivitäten als Reaktion auf neue Stimuli oder auf abstraktere Gedanken gegenüber ihrem Grundniveau erhöht. Dies hat viele rechnerische Vorteile. Beispielsweise ist Sparse Coding beim Deep Learning eine Klasse von unüberwachten Methoden zum Lernen von Sätzen übervollständiger Basen, um Daten effizient darzustellen. Grundsätzlich haben Sie mehr Kombinationen zum Speichern von Mustern, wenn Sie wenige Zellen aktivieren, als wenn Sie entweder zu wenige oder zu viele aktivieren.

Bitte geben Sie Referenzen an
@queenslug "bitte" und eine negative Stimme passen nicht zusammen. Habt ihr Asperguer oder was?
Nur nach unten gestimmt, da wir hier in CogSci gründliche Antworten mit Referenzen mögen. Ihre Antwort klingt gut, aber ohne Referenzen könnte es nur eine Meinung sein.
Ich bin neu auf dieser speziellen Seite und wusste nicht, dass es solche Regeln gibt, danke für die nette Begrüßung!
@queenslug "hier in CogSci mögen wir gründliche Antworten mit Referenzen" ist das deine Meinung oder hast du irgendwelche Referenzen, dass das so ist?
@brucesmitherson Es wird irgendwie durch die Tatsache impliziert, dass es sich um eine wissenschaftliche SE handelt. Hier ist eine verwandte Diskussion in meta meta.cogsci.stackexchange.com/questions/201/… Otoh, es gibt ein explizites „sei nett!“ Regel ;-)
Aber danke für den ironischen Post...