Ich habe kürzlich Garritan Personal Orchestra gekauft und finde es ein großartiges Werkzeug, um professionell klingende Orchesterwiedergaben meiner Partituren zu erhalten. Allerdings spüre ich einen gewissen Mangel an "menschlichem" Spiel darin, dh Akkordwechsel klingen manchmal etwas "roboterhaft" und längere Noten werden über lange Zeiträume perfekt gehalten (sie verfallen nicht), was die Aufführung klingen lässt etwas zu computergeneriert.
Ich verstehe, dass professionelle Musiker und Filmmusiker solche Software regelmäßig verwenden, aber sie erzielen viel menschlicher klingende Ergebnisse. Gibt es einen Trick, um die Partitur weniger "computergeneriert" klingen zu lassen? Was kann ich tun, damit die Ergebnisse näher an der menschlichen Leistung erscheinen?
Ich habe mir gerade eine Reihe von Videos des Filmkomponisten Hans Zimmer angesehen, der alle seine Soundtracks mit Software und virtuellen Instrumenten nachbaut, damit die Regisseure hören können, wie es klingen wird, bevor sie es mit einem echten Orchester oder anderen Musikern aufnehmen.
Er hat eine Bedienoberfläche mit mehreren Fadern darauf, und jeder Fader ist einer anderen MIDI-Steuernachricht zugeordnet, die einen Performance-Parameter auf dem virtuellen Instrument ändert. So kann er Waldhörner aufrufen, mit der rechten Hand einen Akkord anschlagen und dann mit der linken einen Fader greifen und ein Crescendo auf den Hörnern ausführen. Die anderen Fader ändern alle möglichen Dinge wie Artikulationsmodus (z. B. Wechsel zu Tremolo und Änderung der Geschwindigkeit des Tremolo) und Hallpegel usw.
Dafür braucht es ein paar Zutaten:
Viele Keyboard-Controller verfügen über mindestens zwei eingebaute Performance-Regler: das Modulationsrad und Aftertouch. Wenn Sie also ein MIDI-Keyboard haben, müssen Sie möglicherweise nicht viel für externe Fader oder ähnliches ausgeben.
Nachdem Sie eine MIDI-Performance aufgenommen oder von Grund auf neu sequenziert haben, gibt es viele Möglichkeiten, Zufälligkeit und Humanisierung hinzuzufügen.
Einige DAWs (ich weiß, dass Pro Tools dies tut) ermöglichen es Ihnen, die Parameter einer Gruppe ausgewählter MIDI-Events auf einmal zu randomisieren. Dies ist besonders effektiv für die Geschwindigkeit.
Darüber hinaus ist die manuelle Bearbeitung eine sehr effektive, aber auch sehr zeitaufwändige Technik, die auf einem Verständnis dafür basiert, wie die echten Instrumente funktionieren und wie sie gespielt werden. Zwei Beispiele sind Schlagzeug und Geigen (und andere Mitglieder der Streichergruppe).
Wenn Menschen Schlagzeug spielen, benutzen sie beide Hände, und praktisch kein Schlagzeuger hat identische Hände. Auch beim Spielen eines sich wiederholenden Musters ist es für einen Menschen sehr schwierig, es nicht leicht zu "schwingen". Damit meine ich, dass die beiden Schläge nicht perfekt gleichmäßig verteilt sind, normalerweise ist jeder zweite Schlag etwas zu früh, und der pünktliche Schlag ist normalerweise etwas lauter. Wenn Sie also für Schlagzeug jeden ungeraden Schlag (den ersten, dritten, fünften usw.) nehmen und ihn etwas lauter machen und dann jeden geraden Schlag (zweiten, vierten, sechsten usw.) nehmen und ihn zeitlich leicht nach vorne verschieben, können Sie erstellen ein realistischerer Klang.
Ähnliches gilt für Streichinstrumente. Der Aufwärtsbogen klingt anders als der Abwärtsbogen. Außerdem ist es fast unmöglich, ein perfektes Tremolo auszuführen - das Timing wird nur so leicht verzerrt sein. Oft besteht die Lösung darin, ein separates Tremolo-Sample zu verwenden, sodass Sie durch das Ändern von Samples in einer Darbietung möglicherweise die gewünschten Artikulationen erstellen können. Gleiches gilt für Trommeln mit Wirbeln.
Es gibt viele andere kleine Details, über die man nachdenken muss. Genügend Legato-Noten, die auf einer Klarinette gespielt werden, erscheinen seltsam, weil der Spieler keine Zeit zum Atmen hat. Kleine winzige Details, die jeder bemerkt, ohne zu wissen, dass sie es bemerkt haben.
Gibt es einen Trick, um die Partitur weniger "computergeneriert" klingen zu lassen?
Bestimmt. Wie Sie vielleicht wissen, ist der größte Teil der heute produzierten Musik, einschließlich Popsongs und Filmmusik, computergeneriert. Nur die berühmtesten Sänger und Spielfilme können es sich leisten, Musiker für die Aufnahme ihrer Musik zu engagieren, weil es so teuer ist. Das breite Publikum wird es nicht merken, obwohl es die aufgenommene Musik unbewusst "besser" finden mag.
Du suchst einen eigenen Beruf: Musikproduktion.
(...) dennoch erzielen sie viel menschlicher klingende Ergebnisse
Es dauert Jahre, wenn nicht Jahrzehnte, den Musikproduktionsprozess zu meistern. Die Produktion eines 4-minütigen Soundtracks kann ein Team von 3 Ingenieuren einen Monat in Anspruch nehmen, wobei Hardware und Software verwendet werden, die sich leicht auf Hunderttausende von Dollar summieren. Wenn Sie gerade erst anfangen, seien Sie nicht enttäuscht, wenn Ihr Soundtrack nicht annähernd so gut ist, wie Sie es gerne hätten.
Der erste Schritt ist die Anschaffung einer Digital Audio Workstation Software, kurz DAW. Aus Ihrer Frage geht nicht hervor, ob Sie bereits einen haben oder nur Sounds direkt aus der Partitursoftware rendern.
Der zweite Schritt ist, ein gutes virtuelles Instrument zu bekommen. Eine hochwertige virtuelle Instrumentenbibliothek ist sehr teuer. Garritan Personal Orchestra ist wegen seines niedrigen Preises und seiner Einfachheit gut für Anfänger geeignet, aber Sie haben keine detaillierte Kontrolle über Notenartikulation, Atmung, Vibrato usw.
Unabhängig davon, welche Bibliothek Sie verwenden, müssen Sie ihr volles Potenzial ausschöpfen. Öffne die DAW, starte das Instrument, fummele an den Einstellungen herum und spiele es dann auf einem Keyboard. Beobachten Sie, wie gut Sie einen menschlichen Spieler nachahmen und Noten mit einer Vielzahl von tonalen Eigenschaften erzeugen können.
(...) längere Noten werden über lange Zeiträume perfekt gehalten (sie klingen nicht ab)
Der dritte Schritt besteht darin, jedes Instrument Zeile für Zeile in die DAW einzuspielen und die Daten aufzuzeichnen. Das ist der Hauptgrund, warum Ihr Sound „roboterhaft“ ist – ein echter menschlicher Spieler wird die Melodielinie interpretieren und sie musikalisch spielen. Wenn Sie einfach die MIDI-Daten aus der Score-Software in die DAW kopieren, wird es immer roboterhaft klingen. Dieser Vorgang wird einige Zeit in Anspruch nehmen, aber er wird Ihre Soundtrack-Qualität erheblich verbessern, selbst wenn Sie ein sehr billiges virtuelles Instrument verwenden. Es gibt "Humanisierungs"-Features in manchen Softwares, die im Grunde willkürlich einige Werte ausgleichen, aber meiner Meinung nach erreichen sie ihr Ziel nicht ganz.
Dazu benötigen Sie ein MIDI-Keyboard, ein Pedal und eine ASIO-Soundkarte. Für Einstiegsoptionen sollte diese Hardware erschwinglich sein, wenn Sie sich GPO leisten können.
Der nächste Schritt ist die Feinabstimmung der aufgezeichneten Leistungsdaten. Sie benötigen einige Hardware-Fader-Steuerungen, die auf den meisten MIDI-Keyboards enthalten sind. Sie werden zumindest die "Velocity"-Daten des MIDI, das die Lautstärke steuert, fein abstimmen wollen. Wenn Ihr virtuelles Instrument Vibrato steuern kann, großartig. Wenn es Legato gegen Staccato kontrollieren kann, sogar noch besser. Diese Parameter können entweder zusammen mit der Leistung oder in einem separaten Lauf aufgezeichnet werden.
Dieser Schritt ist optional: Wenn Ihre Orchesterpartitur 2 Instrumente erfordert, nehmen Sie sie mit verschiedenen virtuellen Instrumenten auf. In der realen Welt ist es sehr unwahrscheinlich, dass beide Flötisten genau das gleiche Flötenmodell verwenden. Wenn Sie den Ton direkt aus der Partitur "rendern", verdoppelt die Software einfach die Lautstärke desselben Instruments, was nicht realistisch ist. Das gleiche Prinzip gilt für die gesamte Holzbläser- und Blechbläser-Sektion ... Ich hoffe, Sie sehen jetzt, warum die Musikproduktion zeitaufwändig und teuer ist.
Dann müssen Sie alle Ihre Instrumente als Audiodaten "mischen". In einem echten Orchester sitzen einige Spieler näher am Publikum/Mikrofon und einige weiter entfernt. Sie haben im 3D-Raum einen unterschiedlichen Nachhall und eine andere Links/Rechts-Balance. Wenn Sie die Partitur direkt rendern, wird jedes Instrument gespielt, als ob es direkt neben dem Mikrofon wäre, weshalb es unwirklich klingt.
Ich hoffe, diese Antwort gibt Ihnen eine Vorstellung davon, wie Sie Ihren Soundtrack weniger "computergeneriert" und lebendiger gestalten können, und einige allgemeine Anweisungen, wenn Sie weiter forschen möchten.
give every line the rhythmic feel of the MIDI instrument
- Sie würden die Tastatur verwenden, um das bestimmte Instrument zu emulieren, das Sie spielen. Wenn ein echter Spieler in einem Intervall Luft holt und ein leichtes Decrescendo macht, tun Sie dasselbe.Ich würde 3 Schritte empfehlen, um die Leistung zu humanisieren.
Verwenden Sie die Bedienfelder für die Instrumentensteuerung, um die Einstellungen jedes Instruments so anzupassen, dass das Timbre ansprechend ist. Bei einigen DAWs können Sie diese Steuerelemente auch automatisieren, sodass sie sich während des gesamten Tracks ändern können. Weitere Informationen zur Automatisierung von Steuerelementen in einem Plugin finden Sie im Handbuch Ihrer DAW. Beispielsweise können Sie in Reaper GPO als VST-Plugin ausführen und dann Automatisierungslinien zeichnen, um die Instrumentensteuerungsparameter während des Songs zu ändern.
Machen Sie sich mit den MIDI-Steuerungen vertraut, insbesondere mit der Anschlagstärke. Dadurch wird verhindert, dass alle Noten gleich klingen, und Sie können eine menschenähnlichere Dynamik erzeugen.
https://usermanuals.garritan.com/GPO5/Content/controls.htm#Basic_controls
Tetsujin
Klangen
Tetsujin