Wann spielt die Audiolatenz eine Rolle und wann keine Rolle?

Wann spielt die Audiolatenz (physische Wirkung auf den gehörten Ton) eine Rolle und/oder keine Rolle?

Es wird berichtet, dass die Touch-to-Sound-Latenzzeit von iOS in der Größenordnung von 50 Millisekunden liegt, aber einige Musiker schaffen es, iOS-Musik-Apps ohne allzu große Beschwerden abzuspielen.

Ich habe auch Berichte über Beschwerden über sogar 5 ms Latenz gehört, obwohl Musiker früher weit über 10 Fuß (diagonal, Bodenhöhe bis Kopfhöhe) von ihren Bühnenmonitorlautsprechern entfernt standen, was mehr als 10 ms zu jeder Audiosystemlatenz hinzufügt.

In welchen Situationen kommt es also wirklich auf wenige Millisekunden Latenz an? Und was sind die Situationen, in denen sogar Dutzende von Millisekunden Latenz noch akzeptable (virtuelle oder MIDI-) musikalische (Instrumenten-)Übungen oder Darbietungen ermöglichen?

Ich habe nicht das Gefühl, dass ich genug Wissen habe, um eine tatsächliche Antwort zu geben, aber ich verstehe, dass der durchschnittliche Mensch hören kann, dass zwei Wiederholungen desselben Tons zu unterschiedlichen Zeiten aufgetreten sind, wenn sie > 30 ms sind. In diesem Zusammenhang stelle ich mir vor, dass sich die Latenz bei etwa 30 ms am deutlichsten bemerkbar machen würde. Dies spielt in der Regel bei der Aufnahme von Overdubs eine viel größere Rolle, bei denen zu viel Latenz tatsächlich wahrnehmbar und konsistent ist und Sie im Allgemeinen beabsichtigen, diese Aufnahme wiederholt zu hören, sodass kleine Probleme, die bei Live-Auftritten möglicherweise unbemerkt bleiben, stärker auffallen.
@Basstickler - Auch ich habe gezögert, eine tatsächliche Antwort zu geben. Sie können die Latenz bei etwa 5 - 7 ms "fühlen", aber nicht unbedingt "hören" [Phasenabweichung beiseite]. Doch lange Zeit hatten frühe Synthesizer/Midi-Keyboards eine Latenz von 10 - 25 ms, selbst wenn nur das angeschlossene Keyboard gespielt wurde; Musos hat sich einfach daran gewöhnt und die Welt hat sich dadurch verändert. [Ich kann aus diesen Informationen immer noch keine tatsächliche Antwort herstellen]
@Tetsujin - Ich habe im Grunde genommen festgestellt, dass einige es mehr hören / fühlen als andere. Ich frage mich auch, inwieweit die 30-ms-Regel tatsächlich für zwei verschiedene Sounds gelten würde. Typischerweise führt uns der menschliche Zustand zu Inkonsistenzen im Rhythmus, also ist eine kleine Latenz nicht viel anders als das, außer der Tatsache, dass alles durch die Latenz zurückgesetzt wird, wodurch Dinge, die hinter dem Beat liegen, weiter hinten liegen und solche voraus entweder weniger voraus, pünktlich oder hinterher. Als solches würde ich mir vorstellen, dass der Unterschied der Gesamtleistung zu spüren wäre.
Ich schließe mich an, dass „manche es mehr hören/fühlen als andere“, obwohl ich denke, dass technisch jeder trainiert werden könnte, die Unterschiede zu bemerken. Es ist wirklich eine Frage dessen, was Sie gewohnt sind, was Sie erwarten und welche Leistungsanforderungen Sie haben. Um eine straffe Aufnahme in Studioqualität zu machen und sich wirklich in der „Zone“ einzuschließen, gehe ich davon aus, dass alles über 5 oder 6 Millisekunden wirklich Probleme verursachen kann. Wenn Sie in einer Live-Aufführung sind, setzen Sie das auf 20 und niemand wird klüger. Wenn Sie etwas mit einem weichen, langsamen Attack wie Synth-Pads spielen, können sogar 500 ms in Ordnung sein.
Oh, wissen Sie, wer in der Ära vor der Elektrizität mit Latenz zu kämpfen hatte? Organisten, die Orgeln mit pneumatischer Übertragung spielten. Lesen Sie es nach.
Selbst kabelgebundene Orgel-Keyboards haben ein großes Problem, wenn die Pfeifen mehr als 30 Mio. Wie spielt der Organist im Takt mit dem Chorleiter?

Antworten (6)

Anscheinend hat sich die AES irgendwann das gleiche gefragt und diese Studie durchgeführt: http://lsbaudio.com/publications/AES_Latency.pdf

Sie ließen eine Stichprobe aus verschiedenen Instrumentalisten einem mit einer bestimmten Latenz konfigurierten Monitoring-System eine subjektive Note geben,

Während der Titel "in Live-Sound-Monitoring" sagt, werden Sie beim Lesen feststellen, dass die In-Ear-Monitor-Tests Ihre Frage auch in einer Studioumgebung perfekt beantworten (die Wedge-Tests sind immer noch interessant, wenn auch weniger relevant).

Vielleicht finden Sie auch diese Tabelle - von einem angesehenen Autor - nützlich: http://www.soundonsound.com/sos/jan05/articles/pcmusician.htm#7

Es läuft ungefähr auf optimale Werte von etwa:

  • Gesang < 3 ms;
  • Schlagzeug < 6ms;
  • Gitarren < 12ms;
  • Klavier < 10 ms;
  • Tastaturen (Pads usw.) < 20 ms

Beachten Sie, wie laut dem Autor

„Die Schallgeschwindigkeit in der Luft beträgt ungefähr 1000 Fuß pro Sekunde, jede Millisekunde Verzögerung entspricht dem Hören des Klangs von einem Punkt, der einen Fuß weiter entfernt ist. Wenn Sie also eine E-Gitarre in 12 Fuß Entfernung von Ihrem Verstärker spielen können, können Sie das problemlos mit einer Latenzzeit von 12 ms fertig werden."

und

„Gesang: Dies ist das schwierigste Beispiel, da jeder, der seinen Gesang in ‚Echtzeit‘ hört, Kopfhörer aufhat und daher die Geräusche ‚in seinem Kopf‘ hat. Eine Latenz von sogar 3 ms kann unter diesen Bedingungen beunruhigend sein.“

Oberhalb dieser Werte denke ich, dass es alles eine Frage dessen ist, wie sehr es für Sie persönlich (wie wählerisch Sie sind) und für Ihre Arbeit akzeptabel ist.

Wenn Sie mehr als 100 Vokal-Overdubs (oder geschichtete Percussion) machen, ist ein Wert nahe 0 ein guter Wert – Sie möchten nur nicht, dass sich die Verzögerung der Konsonanten häuft.

Dasselbe gilt, wenn Sie Mariah Carey sind und sich nur das Beste leisten können.

Wenn Sie in einem Heimstudio eine schnelle Demo machen - was auch immer -, bewegen Sie die "s" mit der Maus, richtig?

„Wenn Sie mehr als 100 Vokal-Overdubs (oder geschichtete Percussion) machen, ist ein Wert nahe 0 ein guter Wert – Sie möchten einfach nicht, dass sich die Verzögerung der Konsonanten häuft.“ Ich glaube nicht, dass das richtig ist – jede Aufnahmesoftware kann die Overdubs automatisch an die richtige Position verschieben, alles, was Sie brauchen, ist eine bekannte und vorhersehbare Roundtrip-Latenz. Der absolute Wert der Latenz ist wichtiger, wenn Sie sich selbst über die Software überwachen müssen (z. B. wenn Sie möchten, dass Ihre DAW einige Effekte auf das anwendet, was Sie live hören. Wenn das keine Rolle spielt, ist das Hardware-Monitoring ohne Latenz normalerweise einfach.)

Ich kann nur aus eigener Erfahrung als elektronischer Live-Musiker sprechen.

Die ms-Werte sind das, was ich in meiner Computersoftware gelesen habe. Ich weiß nicht, wie genau es ist, aber sie werden auf mehreren Geräten und Softwarepaketen repliziert. Also neige ich dazu, diese Werte zu verwenden.

Ich habe festgestellt, dass alles, was höher als 100 ms ist, genug Verzögerung ist, um davon gestört zu werden, bis zu dem Punkt, an dem es als "unspielbar" bezeichnet wird. Unser Gehirn kann nur begrenzt kompensieren.

Wenn ich zum Beispiel eine Latenz von 100 ms habe, höre ich meine Note erst mindestens 120 ms, nachdem ich sie mit dem Instrument gespielt habe. Ich muss meine Noten nicht nur früher spielen, als ich sie eigentlich spielen muss, um nicht zu klingen, sondern auch, wenn ich eine falsche Note spiele, höre ich sie erst 120 ms später, verarbeite sie und passe sie an und Diese ganze Latenz kann einen 0,5-Sekunden-Rundgang für das Publikum sehr hörbar machen!

Für Live-Musik-Equipment sind 100 ms das absolute obere Mittel und vergleichbar damit, Instrumentenmonitore auf der anderen Seite eines Fußballfelds aufzustellen. Sie spielen bereits eine neue Note, wenn Sie die erste gespielte Note hören. Ist wie das Lesen von Untertiteln und zu sehen, wie die Figur im Fernsehen ein Wort nach dem Wort spricht, das Sie tatsächlich über die Lautsprecher hören. Sehr nervig!

Ich versuche, 32 oder 24 ms anzustreben. Bei modernen Laptops sind sogar Werte von 18 bis 12 ms möglich. Alles unter ~12-10 ms ist nicht von der Eingabe zu unterscheiden. Ich kann zum Beispiel eine Note spielen und während das Instrument beim Spielen der Note ein Klickgeräusch von sich gibt, höre ich die gespielte Note über die Monitore (ohne Verzögerung).

Aus diesem Grund versuche ich als Live-Instrumentenspieler die Latenz so gering wie möglich einzustellen, ohne die CPU zu überlasten. Wenn ich es auf 10 ms einstelle, kann meine CPU anfangen, Knackgeräusche zu hören, und die CPU-Kernauslastung kann auf einem Kern über 100 % liegen!

Sobald ich ein glückliches Medium gefunden habe, zum Beispiel als Beispiel unten (CPU-Auslastung bedeutet den Prozentsatz der verwendeten CPU, abhängig davon, wie viele Threads das Programm tatsächlich verwenden soll):

128ms = 2% CPU utilization
 64ms = 2.5% CPU utilization
 32ms = 3% CPU utilization
 18ms = 5% CPU utilization
 15ms = 10% CPU utilization
 12ms = 22% CPU utilization
 10ms = 85% CPU utilization

Ich kann mich entscheiden, die Werte zwischen 15 und 18 ms einzustellen. Als Live-Instrumentspieler kann ich es mir nicht leisten, auch nur ein Knistern oder Knacken aufgrund von Buffer-Underruns zu haben.

„Über 100 %“? Wie soll das funktionieren? – Tatsächlich besteht das Problem darin, dass, selbst wenn die durchschnittliche Auslastung nur <30 % beträgt, bei geringer Latenz ein Systemaufruf die CPU lange genug „ablenken“ könnte, um einen Pufferunterlauf zu verursachen. Aus diesem Grund müssen Audio-Threads mit hoher Priorität ausgeführt und Audiosoftware in Programmiersprachen mit deterministischer Speicherverwaltung geschrieben werden.

Ich möchte meine Gedanken teilen, die sich auf Ihre Frage zur iOS-Touch-to-Sound-Latenz und „(virtuelle oder MIDI-) musikalische (Instrument-)Übungen oder Darbietungen?“ beziehen.

Ich muss davon ausgehen, dass Ihr Hauptinteresse - Latenz in Bezug auf iOS-Musikinstrumente und -Geräte oder andere "virtuelle und digital erzeugte Musikklänge (MIDI) während "Übungen oder Aufführungen" auf diesen Art von Geräten oder "Instrumenten" ist.

Für die TL;DR zum Ende springen. Um zu verstehen, wie ich am Ende zu den Schlussfolgerungen gekommen bin, lesen Sie weiter.

Die in der Antwort von Some Dude zitierten Studien und einige der in Kommentaren zitierten anekdotischen Informationen beziehen sich auf Musiker, die echte (im Gegensatz zu virtuellen) Instrumenten spielen . Aber was wir aus diesen Studien und Beobachtungen lernen, wird uns zu einigen logischen Schlussfolgerungen führen, da sie sich auf Ihre spezifische Frage beziehen.

Lassen Sie mich zunächst die anekdotischen Beweise aus meiner Perspektive als auftretender Gitarrist und Sänger hinzufügen, der auch etwas Keyboard und Klavier gespielt hat. Ich trete oft in einer rein akustischen Umgebung mit unverstärkter Akustikgitarre und ohne Mikrofon auf. In einem solchen Fall ist die Latenz sehr gering – insbesondere bei Gesang. Wenn ich mit angeschlossenem Mikrofon auftrete und über ein Mikrofon singe, verwende ich im Allgemeinen Bodenkeilmonitore ziemlich nah. Keines dieser Szenarien bereitet mir Probleme.

Wenn ich in größeren Veranstaltungsorten mit einer Haus-PA und Monitoren auftritt, die möglicherweise von der Decke hängen, ist mir die Verzögerung zwischen dem Zupfen einer Saite auf meiner Gitarre und dem Hören über den Monitor ziemlich unangenehm - und das habe ich eine schwierige Zeit, unter diesen Bedingungen aufzutreten. Ich bin mir sicher, dass ich mich irgendwann daran gewöhnen und mich anpassen würde, wenn ich das die ganze Zeit über üben würde.

Schauen wir uns also an, was wir aus der von Some Dude geteilten AES-Studie extrapolieren können . Dann können wir einige Schlussfolgerungen darüber ziehen, was die Ergebnisse für virtuelle Instrumente nahelegen könnten.

In dieser Studie erfahren wir, dass Sänger und Saxophonisten die geringste Toleranz für Latenz haben und Keyboarder und Schlagzeuger die größte Toleranz haben und Gitarristen dazwischen liegen. Die Ergebnisse der Studie zeigen deutlich, dass die Toleranzwerte direkt mit dem Instrument und NICHT mit den Personen zusammenhängen. Dieselbe Person, die verschiedene Instrumente spielt, würde Latenztoleranzniveaus aufweisen, die mit anderen Ergebnissen auf dem gegebenen Instrument übereinstimmen.

Überlegen wir also, warum das wahr sein könnte. Wann immer Sie sprechen oder singen, erwartet Ihr Gehirn eine sofortige Reaktion ohne Latenz auf Geräusche, die genau zur gleichen Zeit aus Ihrem Mund kommen, wenn Ihr Zwerchfell und Ihre Lungen Luft über Ihre Stimmbänder drücken. So war es, seit du schreiend auf die Welt gekommen bist und zum ersten Mal den Klang deiner eigenen Stimme gehört hast. Es ist also leicht zu verstehen, warum ein Sänger eine geringe Latenztoleranz hat. Das Gehirn ist beim Vokalisieren an unmittelbares Feedback gewöhnt.

Beim Saxophonisten hat das Gehirn eine ähnliche Erwartung entwickelt. Das Erzeugen eines Tons mit einem Horn hat eine sehr signifikante Gemeinsamkeit von Ursache und Wirkung mit dem Erzeugen eines Tons mit Ihrer Stimme. Das Einblasen von Luft - erzeugt ein sofortiges Geräusch. Ob beim Singen oder beim Blasen eines Horns, es gibt eine sehr bewusste physiologische Muskelaktion, die eine gleichzeitige und sofortige Reaktion hervorruft. Hornisten sind es gewohnt, durch ihr Instrument zu blasen und sofort einen Ton zu hören.

BEARBEITEN: Community-Mitglied Supercat hat in Kommentaren einen hervorragenden Punkt gemacht, und ich fühlte mich gezwungen, ihn in diese Antwort aufzunehmen. Um eine Note mit Stimme zu singen oder eine Note mit vielen Arten von Hörnern zu spielen – die Gesichts- und Stimmmuskeln steuern den Klang tatsächlich , während er erzeugt wird, und während des Erzeugungsprozesses müssen geringfügige Anpassungen vorgenommen werden, um die gewünschte Tonhöhe zu erreichen. So kann beispielsweise ein Sänger im Monitor hören, ob er etwas zu hoch oder zu tief ist, und sofort die erforderlichen Anpassungen an den Gesichts-/Stimmmuskeln vornehmen, um die Tonhöhe zu korrigieren. Eine weitere gute Erklärung für die geringere Latenztoleranz eines Sängers oder Hornisten.

Lassen Sie uns nun überlegen, warum Keyboarder eine so hohe Latenztoleranz haben. Die meisten Keyboards, einschließlich akustischer Klaviere, haben eine leichte Verzögerung zwischen dem Zeitpunkt, zu dem Sie eine Taste drücken, und dem Zeitpunkt, zu dem Sie einen Ton hören. Bei einem akustischen Klavier löst das Drücken der Taste eine mechanische Aktion aus, die schließlich dazu führt, dass ein Hammer im Inneren des Klaviers auf die Saiten schlägt. Aber es ist kein sofortiger „Schlag drauf und hör es“-Effekt. Synthesizer und Digital- und E-Pianos hatten schon immer ein gewisses Maß an Latenz. Daher mussten Keyboarder lernen, sich an die unvermeidliche Latenz von dem Moment an anzupassen, an dem sie zu spielen begannen. Für einen Keyboarder ist Latenz also normal und zu erwarten – daher gut verträglich. Das haben sie von Anfang an zu erwarten gelernt .

Bei einem Drummer ist es nämlich ein Hit und man hört es an. Wie erklären wir also die Latenztoleranz eines Schlagzeugers in der AES-Studie? Die Studie aus dem Jahr 2007 erwähnte die Verwendung elektronischer Schlagzeuge zum Testen der Latenztoleranz des Schlagzeugers nicht, daher muss ich davon ausgehen, dass die Schlagzeuger im Test ein akustisches Kit verwendeten.

Ein Schlagzeuger, der mit einem Drumstick auf eine akustische Trommel schlägt, braucht ehrlich gesagt keinen Monitor, um den Klang seiner Trommel zu hören. Ein Schlagzeuger benutzt einen Monitor NICHT, um sich selbst zu hören (einige Schlagzeuger tragen sogar Ohrstöpsel, weil sie ihr Schlagzeug ZU gut hören können) , sondern um die anderen Musiker zu hören (und die anderen Musiker drehen ihre Monitore auf, damit sie sich über den Schlagzeuger hinweg hören können). .

Eine logische Schlussfolgerung, die wir auf der Grundlage der Ergebnisse der AES-Studie ziehen können, ist also, dass Toleranz gegenüber Latenz **erlernt wird .** Das Gehirn lernt alle möglichen nützlichen Informationen, die uns bei Verstand halten. Wenn Sie zum Beispiel Ihre Augen öffnen, sehen Sie Ihre Nase, aber das Gehirn hat gelernt, dieses Bild zu ignorieren, weil Ihr Gehirn weiß, dass es nicht wichtig ist.

Das Gehirn hat gelernt, eine sofortige Rückmeldung zu erwarten, wenn wir die notwendigen Muskelkontraktionen ausüben, um Luft zu blasen – entweder durch ein Horn oder unsere Stimmbänder. Wenn wir lernen, ein Klavier oder ein anderes Tasteninstrument zu spielen, hat das Gehirn von Anfang an GELERNT, sich an die eingebaute Latenz der Tastatur anzupassen.

Meine Erwartung wäre also, dass wir bei den meisten virtuellen Instrumenten leicht lernen können, Latenzen zu tolerieren, weil wir nicht vorkonditioniert wurden, etwas anderes zu erwarten . Wenn wir nie lernen, eine sofortige Reaktion von virtuellen Instrumenten zu erwarten, sollte Latenz nicht das gleiche Problem darstellen wie für einen Sänger, Saxophonisten oder Gitarristen.

Ich würde auch erwarten, dass bei iOS-Drums, die auf einem Touchscreen gespielt werden, die Latenz sehr wohl zu Timing-Problemen führen kann. Wenn Sie auf den Bildschirm tippen und keine sofortige Reaktion auf die Trommel hören, kann das Spielen im Takt sehr schwierig werden. Genau das Gegenteil von dem, was Live-Drummer auf echten Akustik-Kits im Latenztoleranztest erlebt haben.

In Wirklichkeit gibt es für einen Schlagzeuger keine Latenztoleranz . Es ist unmöglich, Latenz für einen Schlagzeuger auf einem Live-Akustik-Kit zu erzeugen oder zu simulieren. Aber auf einer iOS-Trommel könnten Sie Latenz einführen – und ich würde vermuten, dass dies der einzige Fall wäre – wo einige Millisekunden Latenz eine Rolle spielen würden.

Das Aufnehmen und Überwachen von Gesang ist nicht im Umfang dieser Antwort enthalten, da Sie in der Frage weder Gesang noch Aufnahme (nur Spielen und Üben von Instrumenten) erwähnt haben. Das ist also eine ganz andere Diskussion.

TL;DR - Die unterm Strich Antwort auf Ihre Fragen:

  1. Frage: "In welchen Situationen kommt es wirklich auf wenige Millisekunden Latenz an?" Antwort: Beim Spielen von iOS- oder MIDI-Drums auf einem Silent-Pad oder Touchscreen, wenn Sie mit anderer Musik spielen, bei der das Timing wichtig ist.

  2. Frage: „In welchen Situationen können sogar Dutzende von Millisekunden Latenz noch akzeptable (virtuelle oder MIDI-) musikalische (Instrument-)Übungen oder Darbietungen ermöglichen?“

Antwort: Beim Üben oder Aufführen auf einem iOS- oder MIDI- oder virtuellen Instrument außer Schlagzeug.

Angesichts Ihrer Erfahrung scheint es also, dass sich nicht nur Schlagzeug, sondern auch simulierte Saiteninstrumente auf jedem iPhone oder iPad für einen erfahrenen Musiker inakzeptabel anfühlen sollten, vorausgesetzt, die Berichte über eine minimale Latenzzeit von etwa 50 ms von der physischen Berührung bis zur Audioausgabe stimmen . Das Gleiche gilt für "geblasene" virtuelle Blasinstrumente, bei denen eine Latenzzeit von mindestens 15 bis 17 ms vom Mikrofon zum Audio (ohne DSP-"Blow" -Erkennung) gegeben ist.
@hotpaw2 Eine simulierte Gitarre auf einem iPhone ist ein anderes Instrument als eine echte Gitarre. Es fehlt das taktile Gefühl, eine Saite zu zupfen, eine resultierende Vibration zu spüren usw. Es wird eher dem Spielen einer Tastatur ähneln - selbst wenn die "Tastatur" so gestaltet ist, dass sie wie eine Gitarre aussieht und klingt. Aber für ernsthaftes Spielen in der Tasche mit anderen Instrumenten würde ich so wenig Latenz wie möglich bevorzugen. Ich habe keine persönliche Erfahrung mit windgeblasenen MIDI-Hörnern. Aber beim Lesen von Online-Rezensionen und Foren scheint es, dass sie eine „Anpassung des Denkprozesses“ und „eine Lernkurve“ erfordern.
Ich vermute, dass ein weiterer kritischer Faktor bei der Latenztoleranz bei Tastatur und Schlagzeug darin besteht, dass alle Aktionen zum Einleiten einer Note abgeschlossen sein müssen, bevor etwas hörbar ist, während das Singen oder Spielen eines Saxophons erfordert, dass man seine Gesichts- / Stimmmuskeln als Reaktion darauf anpasst was die Stimme oder das Instrument tut.
@supercat Ausgezeichneter Punkt. Mit anderen Worten, die Gesichtsmuskeln und die Stimmmuskeln steuern tatsächlich den Klang, während er erzeugt wird, und während des Erzeugungsprozesses müssen geringfügige Anpassungen vorgenommen werden.

Die Auswirkungen der Latenz sind eine gleitende Skala, die sich durch Folgendes erstreckt:

  • Null
  • undenkbar
  • wahrnehmbar als "Gefühl" (wie ein Schlagzeuger, der leicht zieht)
  • wahrnehmbar als "etwas falsch"
  • wahrnehmbar als "etwas völlig falsch"; das Spielen völlig unmöglich machen

Der Effekt hängt auch von der Art des Sounds ab, den Sie erzeugen. Wenn Sie etwas mit einem sanften Attack spielen, wie Synthesizer-Washes, spielt das genaue Timing keine Rolle. Wenn Sie etwas Rhythmisches und Staccato wie Schlagzeug oder einen Rhythmusgitarrenpart spielen, dann ist das Timing entscheidend.

Sogar ein Lead-Gitarren-Part kann ziemlich tolerant gegenüber Timing-Verschiebungen sein, im Vergleich zu den Rhythmus-Parts, die straff sein müssen.

Die von Ihnen erwähnte Verzögerung von 50 ms liegt in der Nähe des "Gefühls" oder "etwas falsch" und würde die Musik nicht vollständig ruinieren oder das Spielen erschweren.

Allerdings kommt es zu Latenzen. 50 ms vom Touchscreen bis zur Tonerzeugung könnten in Ordnung sein. 50 ms für den Tonweg vom Lautsprecher zum Ohr könnten in Ordnung sein. Wenn Sie sie zusammenzählen, haben Sie 100 ms, was nicht in Ordnung ist.

Eine Latenz von 5 ms in einem Effektpedal mag unbedeutend erscheinen – aber einige Gitarristen verketten gerne 10 oder mehr Effekte, sodass jede Millisekunde zählt.

Es gibt alle möglichen Situationen, in denen sich Latenz ansammelt – zum Beispiel beim Overdubbing mehrerer Tracks, und Sie (und/oder Software-Autoren) müssen dies beim Engineering berücksichtigen.

Als die (ISA)Turtle Beach Pinnacle mit 750 ms Audiolatenz der König der PC-Soundkarten war, gelang es uns irgendwie, perfekt synchronisierte Mehrspuraufnahmen zu machen, indem wir direktes Monitoring des Eingangs arrangierten und die bereits aufgezeichneten Spuren vorab holten .

Wenn Sie jedoch einen Software-Sampler in Echtzeit von einem MIDI-Keyboard aus spielen oder eine (vom Computer) verarbeitete Version Ihres Audioeingangs hören möchten, müssen Sie sich um eine niedrige Latenz bemühen.

Alles im Bereich von 10 ms oder weniger wird im Allgemeinen als akzeptabel angesehen. Niedrige einstellige Werte werden ganz einfach erreicht. Wer sich mit 50ms zufrieden gibt, ist entweder sehr anspruchslos oder lässt sich von der iPad-Anbetung täuschen :-)

Wenn für „Zero-Latency-Monitoring“ geworben wird, ist das irreführend. Null ist unerreichbar. Sie sprechen davon, ein Eingangssignal direkt wieder herauszuschleifen, ohne das Audioverarbeitungssystem des Computers zu durchlaufen. Es ist keine Null-Latenz, es wird lediglich Latenz vollständig vermieden. (Wie wir es im ersten Absatz dieser Antwort getan haben.)

Ein Beispiel dafür, wann die Audiolatenz kaum eine Rolle spielt:

Du nimmst cleane Vocals in deinen PC, dein Audio-Interface, auf und singst zu den Tracks, die du bereits aufgenommen hast. Sowohl auf dem Weg in den PC als auch auf dem Weg nach draußen wird es einen Latenzeffekt geben. Der Computer weiß jedoch, wie groß der Audiopuffer auf dem Weg nach draußen ist, und spielt „früh“, um dies auszugleichen; Ebenso weiß die DAW, dass das, was Sie gespielt haben, zeitlich etwas früher gespielt wurde, und zieht es zeitlich um die Pufferlänge nach vorne. Obwohl es in diesem System also zwei Latenzstufen gibt, wird fast alles behandelt; man merkt es kaum (wenn alles funktioniert natürlich)

Ich sage „fast“ erledigt, weil es einige Verzögerungen im System gibt, die nicht so einfach zu quantifizieren sind. Aber in der Praxis scheint es sehr nahe zu kommen.

Das heißt, wenn Sie nicht über den PC überwachen :)
Ja - in meinem Szenario habe ich mir vorgestellt, dass wir überhaupt nicht abhören (nur sich selbst singen hören). Aber wahr, wenn Sie überwachen und in dem von mir beschriebenen Szenario sein möchten, muss die Überwachung von einem Punkt aus erfolgen, bevor das Signal in die digitale Welt des PCs gelangt.