Was ist der Zweck der Phaseninvertierung?

Kann jemand erklären, warum, wenn ich Jam-Sessions aufnehme, die Aufnahme nach einer gewissen Zeit so klingt, als ob Effekte hinzugefügt würden und die Gitarre im Hintergrund mit einem Twang-Effekt so klingt, als wäre sie ausgeschaltet. Ich bin ahnungslos

Antworten (2)

Um den Effekt der Phasenauslöschung zu vermeiden , wie unten abgebildet:

Dies passiert, wenn Sie mit mehreren Mikrofonen aufnehmen und deren Phasen sich gegenseitig aufheben .

Sie sollten es verwenden, wenn Sie visuell bemerken, dass ein Signal das andere auslöscht. Das Invertieren eines der Kanäle sollte das Problem lösen.

"Wenn visuell ..." Ich denke, es ist am besten, Ihre Ohren zu benutzen. Beginnen Sie mit einem Mikrofon auf Unity und einem mit dem Fader ganz nach unten, heben Sie den Pegel des stummgeschalteten Mikrofons an, und wenn Sie hören, dass der Bass wegfällt, haben Sie eine Auslöschung. Viel schneller und VIEL zuverlässiger. Zumindest war es das für mich. (+1 übrigens, tolle Antwort.)
@AytAyt: Das ist in Ordnung, wenn Sie in der Lage sind, eines der Mikrofone nach Belieben stummzuschalten / die Stummschaltung aufzuheben.
@LightnessRacesinOrbit Ich war noch nie in einem, wo du es nicht kannst. Können Sie das für mich erweitern?
@AytAyt: (Zum Stummschalten) Wenn es jemand verwendet (Zum Stummschalten) Wenn es Rauschen gibt, das Sie nicht übertragen möchten? Was fehlt mir hier
@LightnessRacesinOrbit Sie vermissen, dass Sie nur einmal während des Soundchecks überprüfen müssen. In den anderthalb Jahrzehnten, in denen ich das mache, habe ich gelernt, dass es immer möglich ist, einen schnellen Soundcheck zu machen. Sie scheinen fälschlicherweise zu glauben, Sie müssten ständig die Phase oder so etwas überprüfen. Einmal am Anfang ist in Ordnung. Alternativ können Sie es später in Ihrer Daw tun und dann dieses Wissen verwenden, um die Wellenformen an ihren Platz zu bringen.
In der Tat ist es besser, Ihre Ohren zu benutzen, obwohl ich fürchte, je nachdem, wie stark die Phase verschoben ist, können Sie einige subtile Unterschiede nicht sofort hören. Normalerweise neigen Benutzer nach der Visualisierung dazu, den Klang besser zu verstehen, und manchmal können sie beginnen, den Effekt der Phasenauslöschung besser zu hören. Vor allem vertraue ich nicht ganz auf meine Ohren, sie könnten nicht trainiert genug sein, um einige kleine Details zu hören. Ich lasse dieses Papier hier über "Visuelle Einflüsse auf auditives räumliches Lernen": ncbi.nlm.nih.gov/pmc/articles/PMC2674475

Wenn Sie mehrere Mikrofone kombinieren, die dieselben Schallquellen aufnehmen, die zufällig unterschiedliche Phasenkonventionen haben.

Ich habe kürzlich einen Vergleich zwischen Røde- und Oktava-Mikrofonen gemacht, die direkt nebeneinander platziert sind und ihre Verstärkung auf dem Mischpult ziemlich gut aufeinander abgestimmt haben. Wenn Sie die Signale ohne Phasenumkehr hinzugefügt haben, war der größte Teil des Basses weg.

Jetzt ging es hier um Vergleichszwecke, im Endprodukt war also entweder das eine oder das andere enthalten, aber wenn ich durch die Kombination zweier Mikrofone ein musikalisch brauchbares Produkt hätte schaffen wollen, hätte ich mich ziemlich geärgert (hat mein Mischpult nicht Phasenumkehrschalter, aber meine DAW hat). Auch beim Umschalten auf Vollton würde eine Phasenfehlanpassung zu lauten Klicks führen.

Im Gegensatz dazu gibt es den Trick, zwei Mikrofone aneinander zu binden, direkt in eines zu singen und sie phasenverkehrt zu kombinieren. Das lässt die meisten Geräusche aus größerer Entfernung auslöschen und hilft gegen akustische Rückkopplungen.

Hätte dieser Trick nicht pro Frequenz einen anderen Effekt, basierend auf der Wellenlänge des Tons und dem Abstand zwischen den beiden Mikrofonen?