Warum werden aktive Kopfhörer nicht auf einen flachen Frequenzgang entzerrt?

Einige Kopfhörer sind "aktiv", mit in die Schalen eingebauten Verstärkern und benötigen eine Stromquelle (normalerweise AAA-Batterien).

Ich sehe dann viele Audiophile, die den Frequenzgang als Maß dafür diskutieren, wie gut Kopfhörer sind, und sie lehnen die meisten "aktiven" Kopfhörer wie den Dre Beats Studio kategorisch ab.

Bei einigen Operationsverstärkern scheint es jedoch ziemlich einfach zu sein, das vorverstärkte Eingangssignal so zu entzerren, dass es den Frequenzgang des Treibers vollständig korrigieren und somit auf Wunsch einen extrem flachen Frequenzgang erzeugen kann (oder nicht, z. B. Bass verstärken oder kürzen).

Gibt es etwas besonders schwieriges dabei?

Frequenzgangdiagramm http://graphs.headphone.com/graphCompare.php?graphType=0&graphID[]=1383&graphID[]=193&graphID[]=1263&graphID[]=853&scale=20

Für das Dre Beats Studio (blaue Linie) könnte die EQ-Schaltung beispielsweise +3 dB bei 750 Hz, -5 dB bei 1100 Hz, +6,5 dB bei 1300 Hz, +5 dB bei 1550 Hz, -4,5 dB bei 8,5 kHz und +14 dB liefern @15 kHz, wobei die Flanken so abgestimmt sind, dass der Frequenzgang von 500 Hz bis 20 kHz am besten auf 0 dB ausgerichtet wird.

Antworten (3)

Wenn Sie etwas an Ihr Ohr halten, um Standard-Stereoaufnahmen wiederzugeben, möchten Sie keinen flachen Frequenzgang, da die kopfbezogene Übertragungsfunktion , die normalerweise für eine viel weiter entfernte Schallquelle ins Spiel kommt, ganz anders aussieht, wenn die Quelle an Ihrem Ohr liegt .

Lassen Sie mich Ihnen ein paar Absätze aus einem Buch zitieren :

Von allen Komponenten in der elektroakustischen Übertragungskette sind Kopfhörer die umstrittensten. High Fidelity im eigentlichen Sinne, das nicht nur die Klangfarbe, sondern auch die räumliche Lokalisierung beinhaltet, wird aufgrund der bekannten In-Head-Lokalisierung von Kopfhörern eher mit Lautsprecher-Stereophonie in Verbindung gebracht. Dabei sind binaurale Aufnahmen mit Kunstkopf, die für naturgetreue High-Fidelity am vielversprechendsten sind, für die Kopfhörerwiedergabe prädestiniert. Selbst in ihrer Blütezeit fanden sie keinen Platz in der routinemäßigen Aufnahme und Ausstrahlung. Die Ursachen waren damals die unzuverlässige frontale Lokalisierung, die Inkompatibilität mit der Lautsprecherwiedergabe sowie deren Tendenz zur Unästhetik. Da die digitale Signalverarbeitung (DSP) routinemäßig mit binauralen kopfbezogenen Übertragungsfunktionen, HRTF, filtern kann, werden keine Kunstköpfe mehr benötigt.

Die häufigste Anwendung von Kopfhörern ist nach wie vor, sie mit ursprünglich für Lautsprecher gedachten Stereosignalen zu speisen. Damit stellt sich die Frage nach dem idealen Frequenzgang. Für andere Geräte in der Übertragungskette (Abb. 14.1), wie Mikrofone, Verstärker und Lautsprecher, ist in der Regel ein flacher Frequenzgang das Konstruktionsziel, mit leicht definierbaren Abweichungen von diesem Frequenzgang in Sonderfällen. Ein Lautsprecher ist erforderlich, um in einer Entfernung von typischerweise 1 m einen flachen SPL-Verlauf zu erzeugen. Der Freifeld-SPL reproduziert an diesem Punkt den SPL am Ort des Mikrofons im Schallfeld beispielsweise eines aufgenommenen Konzerts. Hört man sich die Aufnahme vor einem LS an, verzerrt der Kopf des Zuhörers den SPL linear durch Beugung. Seine Ohrsignale zeigen keine flache Antwort mehr. Dies muss den Lautsprecherhersteller jedoch nicht betreffen, denn dies wäre auch passiert, wenn der Zuhörer bei der Live-Aufführung anwesend gewesen wäre. Andererseits befasst sich der Kopfhörerhersteller direkt mit der Produktion dieser Ohrsignale. Die in den Normen festgelegten Anforderungen haben sowohl zum kalibrierten Freifeldkopfhörer geführt, dessen Frequenzgang die Ohrsignale für einen Lautsprecher davor nachbildet, als auch zur Diffusfeldkalibrierung, bei der es darum geht, den SPL im Ohr nachzubilden ein Zuhörer für aus allen Richtungen einfallenden Schall. Es wird angenommen, dass viele Lautsprecher inkohärente Quellen mit jeweils flachem Spannungsgang haben. Die in den Normen festgelegten Anforderungen haben sowohl zum kalibrierten Freifeldkopfhörer geführt, dessen Frequenzgang die Ohrsignale für einen Lautsprecher davor nachbildet, als auch zur Diffusfeldkalibrierung, bei der es darum geht, den SPL im Ohr nachzubilden ein Zuhörer für aus allen Richtungen einfallenden Schall. Es wird angenommen, dass viele Lautsprecher inkohärente Quellen mit jeweils flachem Spannungsgang haben. Die in den Normen festgelegten Anforderungen haben sowohl zum kalibrierten Freifeldkopfhörer geführt, dessen Frequenzgang die Ohrsignale für einen Lautsprecher davor nachbildet, als auch zur Diffusfeldkalibrierung, bei der es darum geht, den SPL im Ohr nachzubilden ein Zuhörer für aus allen Richtungen einfallenden Schall. Es wird angenommen, dass viele Lautsprecher inkohärente Quellen mit jeweils flachem Spannungsgang haben.

Geben Sie hier die Bildbeschreibung ein

(a) Freifeld-Reaktion: In Ermangelung einer besseren Referenz haben die verschiedenen internationalen und anderen Standards die folgende Anforderung für High-Fidelity-Kopfhörer aufgestellt: Der Frequenzgang und die wahrgenommene Lautstärke für einen Mono-Signaleingang mit konstanter Spannung müssen sich dem annähern eines Flat-Response-Lautsprechers vor dem Zuhörer unter reflexionsarmen Bedingungen. Die Freifeld-Übertragungsfunktion (FF) eines Kopfhörers bei einer bestimmten Frequenz (1000 Hz als 0-dB-Referenz gewählt) ist gleich dem Betrag in dB, um den das Kopfhörersignal verstärkt werden muss, um die gleiche Lautstärke zu erzielen. Es ist eine Mittelung über eine Mindestanzahl von Fächern (normalerweise acht) erforderlich. [...] Abbildung 14.76 zeigt ein typisches Toleranzfeld.

Geben Sie hier die Bildbeschreibung ein

(b) Diffusfeld-Reaktion: In den 1980er Jahren begann eine Bewegung, die Freifeld-Standardanforderungen durch andere zu ersetzen, bei denen das Diffusfeld (DF) die Referenz ist. Wie sich herausstellte, hat es seinen Weg in die Standards gefunden, ohne jedoch das alte zu ersetzen. Die beiden stehen nun nebeneinander. Die Unzufriedenheit mit der FF-Referenz entstand hauptsächlich aus der Größe der 2-kHz-Spitze. Es wurde für die Farbgebung des Bildes verantwortlich gemacht, da auch bei einem Monosignal keine frontale Lokalisierung erreicht wird. Die Wahrnehmung der Färbung durch das Gehör wird durch das Assoziationsmodell von Theile beschrieben (Abb. 14.62). Einen Vergleich der Ohrantworten für Diffusfeld und Freifeld zeigt Abb. 14.77. [...] Da es auf den subjektiven Hörtest ankommt, FF-Kopfhörer sind bisher eher die Ausnahme als die Regel. Eine Palette unterschiedlicher Frequenzgänge steht zur Verfügung, um individuellen Vorlieben gerecht zu werden, und jeder Hersteller hat seine eigene Kopfhörerphilosophie mit Frequenzgängen, die von flach bis zum Freifeld und darüber hinaus reichen.

Geben Sie hier die Bildbeschreibung ein

Dieses HRTF-Unterschiedsproblem ist auch der Grund, warum abgewinkelte Treiber (in Kopfhörern) für genug Leute besser klingen, dass Unternehmen wie Sennheiser solche verkaufen. Abgewinkelte Treiber lassen Kopfhörer jedoch nicht vollständig wie Lautsprecher klingen.

In der Fabrik oder im Labor wird ein künstliches Ohr verwendet, wenn der Frequenzgang gemessen wird. Der folgende ist ein Labor-Level; Die auf Werksebene sind etwas einfacher.

Geben Sie hier die Bildbeschreibung ein

Ich habe auch die Methodik gefunden, die von dieser HeadRoom-Site verwendet wird :

So testen wir den Frequenzgang: Um diesen Test durchzuführen, treiben wir den Kopfhörer mit einer Reihe von 200 Tönen bei gleicher Spannung und immer höherer Frequenz an. Wir messen dann die Ausgabe bei jeder Frequenz durch die Ohren des hochspezialisierten (und teuren!) Head Acoustics-Mikrofons. Danach wenden wir eine Audiokorrekturkurve an, die die kopfbezogene Übertragungsfunktion entfernt und die Daten für die Anzeige genau erzeugt.

Das verwendete Mikrofon ist wahrscheinlich dieses . Es scheint, dass sie die Übertragungsfunktion des Dummy-Kopfes / der Ohren tatsächlich per Software umkehren, weil sie direkt davor sagen: "Theoretisch sollte dieser Graph eine flache Linie bei 0 dB sein." ... aber ich bin mir nicht ganz sicher, was sie tun ... denn danach heißt es "Ein "natürlich klingender" Kopfhörer sollte im Bass etwas höher sein (ca. 3 oder 4 dB) zwischen 40Hz und 500Hz." und "Kopfhörer müssen auch in den Höhen abgerollt werden, um zu kompensieren, dass die Treiber so nahe am Ohr sind; eine sanft abfallende flache Linie von 1 kHz bis etwa 8-10 dB nach unten bei 20 kHz ist ungefähr richtig." Was für mich in Bezug auf ihre vorherige Aussage über das Invertieren/Entfernen der HRTF nicht ganz kompiliert.

Wenn man sich einige Zertifikate ansieht, die Leute vom Hersteller (Sennheiser) für das in diesem HeadRoom-Beispiel verwendete Kopfhörermodell (HD800) erhalten haben, scheint es, dass HeadRoom die Daten ohne ein angenommenes Korrekturmodell für den Kopfhörer selbst anzeigt (was erklären würde, warum sie ihre spätere Interpretationsvorschläge, daher ist ihr anfänglicher "flacher" Vorschlag irreführend), während Sennheiser eine DF-Korrektur (Diffusfeld) verwendet, sodass ihre Diagramme fast flach aussehen.

Geben Sie hier die Bildbeschreibung ein

Geben Sie hier die Bildbeschreibung ein

Dies ist jedoch nur eine Vermutung, Unterschiede in der Messausrüstung (und/oder zwischen Kopfhörerproben) könnten durchaus für diese Unterschiede verantwortlich sein, da sie nicht so groß sind.


Wie auch immer, dies ist ein Bereich aktiver und laufender Forschung (wie Sie wahrscheinlich aus den letzten oben zitierten Sätzen über DF erraten haben). Einige HK-Forscher haben einiges davon getan; Ich habe keinen (freien) Zugang zu ihren AES-Papieren, aber einige ziemlich ausführliche Zusammenfassungen können im Innerfidelity-Blog 2013 , 2014 gelesen werden, sowie den folgenden Links vom Blog des Hauptautors von HK, Sean Olive ; Als Abkürzung finden Sie hier einige kostenlose Folien aus ihrer neuesten Präsentation (November 2015), die dort zu finden sind. Das ist ziemlich viel Material ... Ich habe es nur kurz angeschaut, aber das Thema scheint zu sein, dass DF nicht gut genug ist.

Hier sind ein paar interessante Folien von einer ihrer früheren Präsentationen . Zuerst der vollständige Frequenzgang (nicht auf 12 kHz gekürzt) von HD800 und auf deutlicher offengelegten Geräten:

Geben Sie hier die Bildbeschreibung ein

Und vielleicht am interessantesten für das OP ist der bassige Sound der Beats nicht so ansprechend, zugegeben im Vergleich zu Kopfhörern, die vier- bis sechsmal so viel kosten.

Geben Sie hier die Bildbeschreibung ein

Ich stimme Ihrem Buch nicht zu, wo es heißt: "Und doch sind binaurale Aufnahmen mit Kunstkopf, die für lebensechte High-Fidelity am vielversprechendsten sind, für die Kopfhörerwiedergabe bestimmt. Sie fanden selbst in ihrer Blütezeit keinen Platz im Aufnahmealltag und Rundfunk." Jedes live im Fernsehen übertragene Sportereignis, an dem ich gearbeitet habe, verwendet ein „Holophon“-Mikrofonarray, um Umgebungsgeräusche für die Verwendung in der Surround-Sound-Audiomischung aufzunehmen. www.holophone.com
@DwayneReid: Interessant. Ist das ultimative Ziel dieser Aufnahme Kopfhörer oder ist es 5.1 oder 7.1 Surround mit Lautsprechern? Es gibt auch Technik zum Downmixen von 5.1/7.1 auf Kopfhörer, aber darauf bin ich hier nicht eingegangen.
Nun, das auf ihrer Hauptseite beworbene Produkt sagt, „ist das einzige patentierte Mikrofon, das speziell für die Erfassung diskreter 7.1-Surround-Sound-Kanäle entwickelt wurde“, sodass das „unglaublich lebensechte 3-D-Audiowiedergabeerlebnis über Lautsprecher oder Stereokopfhörer“ wahrscheinlich eine Downmix-Methode verwendet ( ab 7.1) für Kopfhörer.
Danke, diese Antwort war wirklich informativ. Fasse ich richtig zusammen, um zu sagen: Der Frequenzgang des Kopfhörers versucht, die Verzerrung zu emulieren, die von einer frontalen Audioquelle erzeugt würde, die sich um Ihr Gesicht und in Ihre Gehörgänge ausbreitet, und ein perfekt flacher Frequenzgang würde „unnatürlich“ klingen?
Etwas unklar ist noch, dass bei Anwendung der Rücktransformation das Ziel wieder eine flache 0dB-Linie über das gesamte Frequenzspektrum wäre, die theoretisch über einen Equalizer (idealerweise Vorverstärkung) eingespielt werden könnte. Irgendwelche Gedanken darüber, warum aktive Kopfhörerhersteller dies nicht tun, um eine flache 0-dB-Kurve nach der Kopfverzerrungskorrektur zu haben, oder vielleicht dedizierte Kopfhörerverstärker mit ihnen verkaufen, die diesen EQ anwenden, wie der Sennheiser Orpheus, aber vielleicht für weniger als 30.000 US-Dollar ? Sie wären dann scheinbar die idealen Kopfhörer...
@Ehryk: Betreff: "Der Frequenzgang des Kopfhörers versucht, die Verzerrung zu emulieren, die von einer frontalen Audioquelle erzeugt würde, die sich um Ihr Gesicht und in Ihre Gehörgänge ausbreitet". Das FF-Modell tut das. Das DF-Modell geht auch davon aus, dass es einen Raum gibt. Typischerweise verwenden sie stattdessen 8 Lautsprecher in einem schalltoten Raum als "Standard". Die Jungs von HK argumentieren, dass beides nicht sehr gut ist und irgendwo dazwischen liegen muss, also versuchen sie, das, was flach entzerrte Lautsprecher tun, an einen Raum anzupassen. Ich glaube, sie haben noch keine Produkte herausgebracht, die auf dieser letzteren Philosophie basieren. Sennheiser verwendet DF, wie Sie sehen können.
Dies ist eine großartige Antwort. Es gibt viel zu bedenken, und dieses künstliche Ohr ist ein Schrei (Koteletten und alles).

Die einfache Antwort lautet, dass ein System mit flachem Frequenzgang, das mit Operationsverstärkern zur Korrektur der Treiberantwort aufgebaut ist, zwangsläufig einen sehr unebenen Phasengang im Durchlassband haben wird. Diese Nicht-Ebenheit bedeutet, dass Komponentenfrequenzen von transienten Tönen ungleichmäßig verzögert werden, was zu einer subtilen transienten Verzerrung führt, die eine korrekte Erkennung von Tonkomponenten verhindert, was bedeutet, dass weniger deutliche Töne erkannt werden können.

Folglich klingt es schrecklich. Als käme der ganze Ton von einem Fuzzy-Ball, der genau zwischen den Ohren zentriert ist.

Das HRTF-Problem in der obigen Antwort ist nur ein Teil davon - das andere ist, dass eine realisierbare Schaltung im analogen Bereich nur eine kausale Zeitreaktion haben kann und um den Treiber richtig zu korrigieren, benötigt man einen akausalen Filter.

Dies kann digital mit einem an den Treiber angepassten Finite-Impulse-Response-Filter angenähert werden, aber dies erfordert eine kleine Zeitverzögerung, die ausreicht, um Filme sehr unsynchron zu machen.

Und es klingt immer noch so, als käme es aus Ihrem Kopf, es sei denn, die HRTF wird auch wieder hinzugefügt.

So einfach ist es also doch nicht.

Um ein "transparentes" System zu erstellen, benötigen Sie nicht nur ein flaches Durchlassband über den menschlichen Hörbereich, sondern auch eine lineare Phase - ein flaches Gruppenverzögerungsdiagramm - und es gibt Hinweise darauf, dass diese lineare Phase erforderlich ist bis zu einer überraschend hohen Frequenz fortzusetzen, damit Richtungshinweise nicht verloren gehen.

Dies lässt sich leicht durch Experimente überprüfen: Öffnen Sie eine .wav-Datei von Musik, mit der Sie vertraut sind, in einem Sounddatei-Editor wie Audacity oder snd, löschen Sie ein einzelnes 44100-Hz-Sample von nur einem Kanal und richten Sie den anderen Kanal so aus, dass der erste Sample passiert nun mit dem zweiten des bearbeiteten Kanals und spiele es ab.

Sie werden einen sehr deutlichen Unterschied hören, obwohl der Unterschied eine Zeitverzögerung von nur 1/44100 Sekunde ist.

Bedenken Sie Folgendes: Der Ton geht über 340 mm / ms, also ist dies bei 20 kHz ein Zeitfehler von plus minus einer Abtastverzögerung oder 50 Mikrosekunden. Das sind 17 mm Schallweg, aber Sie können den Unterschied mit den fehlenden 22,67 Mikrosekunden hören, was nur 7,7 mm Schallweg sind.

Die absolute Grenze des menschlichen Gehörs liegt allgemein bei etwa 20 kHz, was passiert also?

Die Antwort ist, dass Hörtests mit Testtönen durchgeführt werden, die meistens nur aus einer Frequenz bestehen, und zwar für eine ziemlich lange Zeit in jedem Teil des Tests. Aber unsere Innenohren bestehen aus einer physikalischen Struktur, die eine Art FFT auf den Ton durchführt, während sie Neuronen ihm aussetzt, so dass Neuronen an verschiedenen Positionen mit verschiedenen Frequenzen korrelieren.

Einzelne Neuronen können nur so schnell neu feuern, daher werden in manchen Fällen ein paar nacheinander verwendet, um Schritt zu halten ... aber das funktioniert nur bis etwa 4 kHz oder so ... Und genau das ist unser Wahrnehmung von Tonenden. Doch es gibt nichts im Gehirn, das ein Neuron daran hindern könnte, immer dann zu feuern, wenn es sich so geneigt fühlt. Was ist also die höchste Frequenz, auf die es ankommt?

Der Punkt ist, dass der winzige Phasenunterschied zwischen den Ohren wahrnehmbar ist, aber anstatt zu ändern, wie wir Geräusche (anhand ihrer spektrografischen Struktur) identifizieren, beeinflusst er, wie wir ihre Richtung wahrnehmen. (was die HRTF auch ändert!) Auch wenn es so aussieht, als sollte es aus unserer Hörreichweite "abgerollt" werden.

Die Antwort ist, dass der -3-dB- oder sogar -10-dB-Punkt immer noch zu niedrig ist - Sie müssen ungefähr bis zum -80-dB-Punkt gehen, um alles zu bekommen. Und wenn Sie mit lautem Sound genauso gut umgehen wollen wie mit leisem, dann müssen Sie bis besser als -100 dB gut sein. Was ein Einzelton-Hörtest wahrscheinlich nie sehen wird, vor allem, weil solche Frequenzen nur "zählen", wenn sie als Teil eines scharfen Übergangsklangs phasengleich mit ihren anderen Obertönen ankommen - ihre Energie addiert sich in diesem Fall und erreicht eine ausreichende Konzentration um eine neuronale Reaktion auszulösen, obwohl sie als einzelne Frequenzkomponenten isoliert möglicherweise zu klein sind, um sie zu zählen.

Ein weiteres Problem ist, dass wir sowieso ständig von vielen Quellen von Ultraschallgeräuschen bombardiert werden, wahrscheinlich ein Großteil davon von kaputten Neuronen in unseren eigenen Innenohren, die zu einem früheren Zeitpunkt in unserem Leben durch übermäßigen Schallpegel geschädigt wurden. Es wäre schwierig, den isolierten Ausgangston eines Hörtests über solch lauten "lokalen" Geräuschen zu erkennen!

Dies erfordert daher ein "transparentes" Systemdesign, um eine viel höhere Tiefpassfrequenz zu verwenden, damit der menschliche Tiefpass vor dem System ausgeblendet werden kann (mit seiner eigenen Phasenmodulation, auf die Ihr Gehirn bereits "kalibriert" ist). Die Phasenmodulation beginnt damit, die Form von Transienten zu verändern und sie zeitlich so zu verschieben, dass das Gehirn nicht mehr erkennen kann, zu welchem ​​​​Sound sie gehören.

Bei Kopfhörern ist es viel einfacher, sie einfach so zu konstruieren, dass sie einen einzigen Breitbandtreiber mit ausreichender Bandbreite haben, und sich auf den sehr hohen natürlichen Frequenzgang des „unkorrigierten“ Treibers zu verlassen, um zeitliche Verzerrungen zu vermeiden. Mit Ohrhörern funktioniert das deutlich besser, da sich die geringe Masse des Treibers gut für diese Bedingung eignet.

Der Grund für die Notwendigkeit der Phasenlinearität ist tief in der Zeitbereichs-Frequenzbereichs-Dualität verwurzelt, ebenso wie der Grund, warum Sie kein verzögerungsfreies Filter konstruieren können, das jedes reale physikalische System "perfekt korrigieren" kann.

Der Grund, warum es auf "Phasenlinearität" und nicht auf "Phasenflachheit" ankommt, liegt darin, dass die Gesamtsteigung der Phasenkurve keine Rolle spielt - aufgrund der Dualität entspricht jede Phasensteigung nur einer konstanten Zeitverzögerung.

Jede Ohrmuschel hat eine andere Form und damit eine andere Übertragungsfunktion, die bei leicht unterschiedlichen Frequenzen auftritt. Ihr Gehirn ist an das gewöhnt, was es hat, mit seinen eigenen ausgeprägten Resonanzen. Wenn Sie das falsche verwenden, klingt es tatsächlich nur schlechter, da die Korrekturen, an die Ihr Gehirn gewöhnt ist, nicht mehr denen in der Übertragungsfunktion des Kopfhörers entsprechen, und Sie haben etwas Schlimmeres als eine fehlende Auslöschung der Resonanz - Sie haben doppelt so viele unsymmetrische Pole/Nullen, die Ihre Phasenverzögerung durcheinander bringen und Ihre Gruppenverzögerungen und Komponentenankunftszeitbeziehungen vollständig verstümmeln.

Es wird sehr undeutlich klingen, und Sie werden die durch die Aufnahme codierte räumliche Abbildung nicht erkennen können.

Wenn man einen blinden A/B-Hörtest macht, wird jeder den unkorrigierten Kopfhörer wählen, der zumindest die Gruppenverzögerungen nicht so sehr verstümmelt, damit sich sein Gehirn darauf einstimmen kann.

Und das ist wirklich der Grund, warum aktive Kopfhörer nicht versuchen auszugleichen. Es ist einfach zu schwer, es richtig zu machen.

Das ist auch der Grund, warum die digitale Raumkorrektur die Nische ist: Weil ihre ordnungsgemäße Verwendung häufige Messungen erfordert, die live schwer/unmöglich durchzuführen sind und von denen die Verbraucher im Allgemeinen nichts wissen wollen.

Hauptsächlich, weil sich die akustischen Resonanzen im zu korrigierenden Raum, die hauptsächlich Teil der Basswiedergabe sind, leicht verschieben, wenn sich Luftdruck, Temperatur und Luftfeuchtigkeit ändern, wodurch sich die Schallgeschwindigkeit geringfügig ändert und somit die Resonanzen von dem abweichen, was sie sind waren, als die Messung durchgeführt wurde.

Das Filtern im F-Domian verursacht Phasenverzerrung. Allpass-Phasenentzerrung kann verwendet werden, um dies auszugleichen. In der Theorie kann digital oder analog eine gute Phase haben. Digital bietet heutzutage eine bessere Flexibilität.
Ah, Danke. Damit ist klar, warum es bei den Aktivkopfhörern nicht darauf ankommt, dass analoge Signale durchgelassen werden (kabelgebundene Kopfhörer). Dies lässt scheinbar die Möglichkeit offen, die Pegel in Echtzeit ohne Phasenverzerrung entweder digital an der Quelle (wie einem Computer oder Telefon) oder ohne Verzögerung digital an drahtlosen Kopfhörern anzupassen; Ist dies noch offen als Machbarkeit für eine „perfekt flache“ Antwort (nach HRTF)?
Nein. Es muss eine Verzögerung geben. Andernfalls benötigen Sie buchstäblich eine Zeitmaschine, da die einzige Möglichkeit, die Phase eines realen (kausalen) Systems ohne zusätzliche Verzögerung zu korrigieren, darin besteht, einen Filter mit dem genau umgekehrten, antikausalen Zeitverhalten zu verwenden. Und das bedeutet, dass es unbedingt die "Zukunft" des Signals kennen muss, bevor es zum Zeitpunkt = 0 landet.

Ein interessanter Artikel und Diskussion. Wir neigen dazu zu denken, dass das Nyquist-Theorem eine Regel ist, die überall gilt, und stellen dann fest, dass dies nicht der Fall ist. Sie messen die Grenze des menschlichen Gehörs mit Sinuswellen bei 20 kHz und nehmen dann bei 44,1 oder 48 kHz auf, in der Gewissheit, dass Sie alles erfasst haben, was das Ohr hören kann. Das Verschieben eines Kanals um ein Sample verursacht jedoch eine signifikante Änderung, obwohl die zeitliche Differenz über 20 kHz liegt.

Bei bewegten Bildern denken wir, dass das Auge Bilder mit einer Bildrate von über 20 Bildern pro Sekunde integriert. Film wird also mit 24 Bildern pro Sekunde aufgenommen und mit einem 2-fachen Verschluss wiedergegeben, um Flimmern zu reduzieren (48 Bilder pro Sekunde); TV hat je nach Region eine Bildrate von 50 oder 60 Hz. Einige von uns können das Flimmern der 50-Hz-Bildrate sehen, insbesondere wenn wir mit 60 Hz aufgewachsen sind. Aber hier wird es interessant. Auf den Tech Retreat- und SMPTE-Konferenzen der Hollywood Professional Association in den letzten Jahren wurde gezeigt, dass ein durchschnittlicher Zuschauer eine deutliche Qualitätsverbesserung sieht, wenn der native Frame von 60 Hz auf 120 Hz erweitert wird. Noch überraschender ist, dass dieselben Zuschauer eine ähnliche Verbesserung sahen, als sie die Bildrate von 120 auf 240 Hz erhöhten. Nyquist würde uns sagen, dass, wenn wir die Bildrate bei 24 nicht sehen können, Wir müssen nur die Bildrate verdoppeln, um sicherzustellen, dass alles erfasst wird, was das Auge auflösen kann. Hier sind wir jedoch bei der 10-fachen Bildrate und beobachten immer noch merkliche Unterschiede.

Hier ist eindeutig mehr los. Im Fall von Motion Imaging wirkt sich die Bewegung im Bild auf die erforderliche Bildrate aus. Und bei Audio würde ich erwarten, dass die Komplexität und Dichte der Klanglandschaft die erforderliche Audioauflösung bestimmt. Alle diese Klänge hängen viel mehr von ihrer Phasenkohärenz als von ihrem Frequenzgang ab, um die für die Bildgebung erforderliche Artikulation bereitzustellen.

Ich finde hier nichts, was die Frage beantwortet. Was haben die Abtastrate und das Nyquist-Abtasttheorem mit der Kopfhörerentzerrung zu tun?
Beim Menschen gibt es kein ADC. Das menschliche Hören/Sehen "sampelt" nichts, es verwendet Neuronen, die eine Art Mischung aus analog und digital sind und praktisch kontinuierlich sind. Das Ohr hat eine physische Abschaltung. Die visuelle Wahrnehmung wird auch dadurch eingeschränkt, wie schnell das Gehirn Informationen verarbeiten kann.