Wie können wir Schall vertikal (von oben nach unten) und von vorne nach hinten lokalisieren?

Das Konzept der lateralen Schalllokalisierung ist recht einfach zu verstehen . Es hängt von der Lautstärke und dem Zeit- (und Wellenphasen-) Unterschied zwischen 2 Ohren ab.

Aber wie können wir die Front-Back- Lokalisierung ( wenn mich jemand aus meiner Front-/Back-Richtung anruft ) und die Up-Down- Lokalisierung erkennen ( z Balkon ich stehe ). Wie passiert das? Oder findet unter diesen Bedingungen gar keine Lokalisierung statt? Ist es nur eine Illusion, nur weil wir uns der möglichen Quelle bereits bewusst sind (z. B. wenn es sich um Flugzeuggeräusche handelt, kann es von oben kommen, oder ich kann sehen, dass mein Freund spricht, indem ich vor mir stehe, also muss das Geräusch von vorne kommen ... etc.)

Ich habe Wikipedia und andere Websites durchsucht, aber nichts gefunden, was die Angelegenheit ausreichend erklärt.

Antworten (3)

  • Die Lokalisierung entlang des Azimuts (horizontale Links-Rechts-Achse) wird durch verschiedene Prozesse vermittelt: 1) Erstens gibt es den Kopfschatteneffekt , was bedeutet, dass Geräusche von links das rechte Ohr (AD) relativ zum linken gedämpft erreichen Ohr (AS) aufgrund des Vorhandenseins von Knochen und anderen Geweben. Diesen Unterschied greift die Superior Olive (SO) auf. Dies hilft hauptsächlich bei der Lokalisierung von Hochfrequenztönen , da niedrige Frequenzen einfach dazu neigen, den Kopf zu umrunden, anstatt ihn zu durchqueren. Wie von anderen erwähnt, gibt es eine Zeitverzögerung zwischen den beiden Ohren, die als 2) interaurale Zeitverzögerung bezeichnet wird(ITD). Angesichts der Schallgeschwindigkeit summiert sich dies zu Verzögerungen im Mikrosekundenbereich, aber der SO ist immer noch in der Lage, solche winzigen Unterschiede zu erkennen, um die Schalllokalisierung zu unterstützen. Es gibt auch eine 3) Phasendifferenz zwischen Schallwellen, die AD und AS erreichen, wenn Schall von links oder rechts kommt, wird ebenfalls registriert. Dieser Hinweis ist wichtig für niedrige Frequenzen (Mather, 2006) .

  • Die Lokalisation in der vertikalen Ebene ( Elevation ) ist weniger gut untersucht. Soweit ich weiß, ist es die Form des Außenohrs (Ohrmuschel), die die Frequenzcharakteristik des ankommenden Schalls umwandelt. Beim Richtungshören geht man davon aus, dass von oben kommende Geräusche zu einer anderen Kopfübertragungsfunktion führen als Geräusche von unten. Dies bedeutet, dass eine Lokalisierung nur dann erreicht werden kann, wenn der Schall eine bestimmte vertraute Eigenschaft hat, die im Frequenzbereich leicht gestört ist, wenn sie aus verschiedenen Elevationswinkeln angetroffen wird (Hofman & Van Opstal, 2003) .

  • Es wird angenommen, dass die Front-Back-Lokalisierung durch ähnliche Prozesse wie Höhenhinweise vermittelt wird. Spektrale Modifikationen wirken wie Filter und werden von den Schallreflexionen abgeleitet, die durch die Form und Größe von Kopf, Hals, Schultern, Rumpf und insbesondere durch die Ohrmuscheln verursacht werden (Zhang & Hartmann, 2010) .

Referenzen
- Hofman & Van Opstal, Exp Brain Res (2003); 148 : 458–70
Mather, Foundations of Perception , Psychology Press (2006)
Zhang & Hartmann, Hear Res ; 260 (1-2): 30

Der Wikipedia-Artikel ist ganz gut.

Kurz gesagt, wie Sie sagen, kann die Wellenphase nur verwendet werden, um Geräusche in der Ebene der Ohren zu lokalisieren. Um eine Annäherung an die Position in der Medianebene (oben-unten/vorne-hinten) zu haben, verwenden wir Asymmetrien, die den Klang bei verschiedenen Frequenzen unterschiedlich verzerren.

Beim Menschen scheinen diese Asymmetrien und ihre Verarbeitung nicht genetisch programmiert zu sein, sondern von jedem Zuhörer entwickelt zu werden.

Dies ist bei Eulen anders, obwohl verschiedene Arten jeweils eine spezifische Asymmetrie haben. https://en.wikipedia.org/wiki/Sound_localization_in_owls

Die Geometrie von Kopf + Außen- und Innenohr ergibt einen winkelabhängigen Spektralfilter. Für satten Klang, dessen Klangfarbe bekannt ist, können wir die spektrale Filterung und damit den Ort charakterisieren (wahrscheinlich auch für bewegten Klang). Im Gegensatz dazu hat sich gezeigt, dass reine Klänge Lokalisierungsillusionen hervorrufen (z. B. eine Änderung der Frequenz ändert den wahrgenommenen Winkel). Darüber hinaus haben wir einige a priori Erwartungen, z. B. hohe Töne, die wahrscheinlicher oben sind.

vielen Dank für eine Antwort. Ich werde mir Zeit nehmen, um den Prozess zu verstehen.