Warum funktionieren bestimmte Gesangsmelodien im Kontext, wenn dieselben Melodien auf Instrumenten dissonant klingen würden?

Ich habe in letzter Zeit mehr Gesangslinien in Songs transkribiert, die ich mag, um mit der üblichen Instrumententranskription, die ich mache, Schritt zu halten, und ich habe etwas Interessantes bemerkt – viele meiner Lieblingsgesangsparts kollidieren sehr, sehr deutlich mit anderen Instrumenten im Song wenn diese Melodie von einem Instrument wiedergegeben wird, aber sie klingen perfekt, sogar konsonant, wenn sie von einem Sänger vorgetragen werden. Dieses Zusammenprallen hat mehrere Dimensionen - normalerweise gibt es einige rhythmische Zusammenstöße (Gesangsparts sind im Vergleich zu Instrumenten oft polyrhythmisch) und harmonische Zusammenstöße (Stimmenkreuzungen, dissonante Intervalle, mikrotonale Verschiebungen, um nur einige zu nennen, oft im gleichen Bereich wie andere Instrumente).

Zuerst dachte ich, dass ich vielleicht die Gesangsmelodie in der falschen Oktave transkribiert habe, vielleicht eine Oktave zu tief, aber nach genauerem Hinhören war es das nicht.

Warum/wie konnte das so sein? Was hat es mit der menschlichen Stimme auf sich, das es möglich macht, mit widersprüchlichen Gesangsmelodien davonzukommen, die nur wie ein heißes Durcheinander oder Geräusch klingen würden, wenn sie stattdessen auf irgendeinem Instrument gespielt würden? Oder gibt es etwas in der Art und Weise, wie die Melodien selbst konstruiert sind, dass sie auf diese Weise mit der menschlichen Stimme arbeiten?

Können Sie ein oder drei Beispiele nennen?
@ToddWilcox Hier ist ein Beispiel: From Fear Through The Eyes of Madness – Coheed and Cambria ( open.spotify.com/track/6thuhn22JZPruCfJnHtTq1 )

Antworten (2)

Ich vermute zwei Hauptgründe dafür, warum eine Melodie, die in der Stimme anständig klingt, auf einem Instrument schrecklich klingt, wenn sie vor derselben Hintergrundmusik gespielt wird:

  1. Die Klangfarbe der menschlichen Stimme unterscheidet sich deutlich von der Klangfarbe der Instrumente. Es ist möglicherweise eine extreme Version dessen, wie manche Synthesizer einfach völlig schrecklich klingen (der schlimmste, an den ich mich erinnere, ist die Synthesizer-Melodie von Necrodeus' Thema in Kirby Mass Attack). Vielleicht klingen manche Melodien mit menschlicher Stimme einfach so viel besser.

  2. Eine menschliche Stimme kann einzelne Noten in der Melodie im laufenden Betrieb mikrotonal anpassen. Dies reicht vom Hinzufügen von Vibrato über die Verwendung weicher Glissandi bis hin zur Optimierung, wie flach G#/Ab ist, je nachdem, ob es als G# oder Ab verwendet wird. Instrumente sind normalerweise nicht in der Lage, all dies im Handumdrehen abzuziehen (das Klavier kann nicht so schnell neu gestimmt werden, Flöten können nicht kontinuierlich glissandieren wie eine Posaune, das Cembalo braucht Tremoli anstelle von Vibrato), also sie kann einige Melodien nicht so spielen, wie es die menschliche Stimme kann.

Der Mikrotonalitätspunkt ist besonders relevant im Blues & Soul, wo Gesangslinien oft mit blauen Noten triefen, die nicht wirklich in westlicher Notation geschrieben oder überhaupt auf Keyboards wiedergegeben werden können. (Sehen Sie, wie schrecklich solche Teile klingen, wenn die Stimme automatisch eingestellt wird ...)

Sie haben die Worte, an denen Sie sich festhalten können. Und eine Stimme kann alles zwischen völlig unmelodischem Rappen und voll lyrischem Gesang. Wir tolerieren es auf halbem Weg!