Emulieren menschlicher Leistung in Orchestersoftware

Ich habe kürzlich Garritan Personal Orchestra gekauft und finde es ein großartiges Werkzeug, um professionell klingende Orchesterwiedergaben meiner Partituren zu erhalten. Allerdings spüre ich einen gewissen Mangel an "menschlichem" Spiel darin, dh Akkordwechsel klingen manchmal etwas "roboterhaft" und längere Noten werden über lange Zeiträume perfekt gehalten (sie verfallen nicht), was die Aufführung klingen lässt etwas zu computergeneriert.

Ich verstehe, dass professionelle Musiker und Filmmusiker solche Software regelmäßig verwenden, aber sie erzielen viel menschlicher klingende Ergebnisse. Gibt es einen Trick, um die Partitur weniger "computergeneriert" klingen zu lassen? Was kann ich tun, damit die Ergebnisse näher an der menschlichen Leistung erscheinen?

Ich bin mir nicht sicher, ob ich aus diesem Kommentar eine vollständige Antwort erhalten kann, aber ... spielen Sie keine "Akkorde" mit einem Orchester. Zeichnen Sie jede Zeile separat auf. Es ist nicht so menschlich wie 6 Menschen, die eine einzelne Linie spielen, aber es ist sicherlich nicht so "blockig" wie ein Keyboarder, der versucht, den gesamten Streicherabschnitt auf einmal zu spielen.
@Tetsujin Ich stimme voll und ganz zu - ich trenne meine Kurzpartitur vor dem Rendern immer in einzelne Instrumente.
Ich spiele buchstäblich ein Instrument nach dem anderen; Ich arbeite nicht mit irgendwelchen „Midi-Scores“, ich spiele „freihändig“, komplett mit individuellen Controllern pro Instrument. Jeder auf einem separaten Kanal/einer separaten Spur, also selbst wenn ich 3 Geigenparts habe, werden sie alle separat vom Sample-Player gehandhabt. Ich werde auch oft eine Solo-Violine über den Part der 1. Violinen doppeln und sie im Mix etwas zurücknehmen, um eine gewisse Trennung zwischen den ansonsten sehr ähnlich klingenden Samples zu schaffen. Das unterschiedliche EQing kann ebenfalls zur Unterscheidung beitragen.

Antworten (3)

Ich habe mir gerade eine Reihe von Videos des Filmkomponisten Hans Zimmer angesehen, der alle seine Soundtracks mit Software und virtuellen Instrumenten nachbaut, damit die Regisseure hören können, wie es klingen wird, bevor sie es mit einem echten Orchester oder anderen Musikern aufnehmen.

Er hat eine Bedienoberfläche mit mehreren Fadern darauf, und jeder Fader ist einer anderen MIDI-Steuernachricht zugeordnet, die einen Performance-Parameter auf dem virtuellen Instrument ändert. So kann er Waldhörner aufrufen, mit der rechten Hand einen Akkord anschlagen und dann mit der linken einen Fader greifen und ein Crescendo auf den Hörnern ausführen. Die anderen Fader ändern alle möglichen Dinge wie Artikulationsmodus (z. B. Wechsel zu Tremolo und Änderung der Geschwindigkeit des Tremolo) und Hallpegel usw.

Dafür braucht es ein paar Zutaten:

  • Virtuelle Instrumente, die MIDI-CC-Meldungen unterstützen, um Performance-Änderungen vorzunehmen. Garritan unterstützt wahrscheinlich einiges davon.
  • Hardware-CC-Controller, die den Bedienelementen im virtuellen Instrument zugeordnet werden.
  • Die Zeit, sie auf eine Weise abzubilden, die für Sie sinnvoll ist.
  • Mehr Zeit zum Üben, sie zu verwenden, um Performances zu erstellen, die so klingen, wie Sie es möchten.

Viele Keyboard-Controller verfügen über mindestens zwei eingebaute Performance-Regler: das Modulationsrad und Aftertouch. Wenn Sie also ein MIDI-Keyboard haben, müssen Sie möglicherweise nicht viel für externe Fader oder ähnliches ausgeben.

Nachdem Sie eine MIDI-Performance aufgenommen oder von Grund auf neu sequenziert haben, gibt es viele Möglichkeiten, Zufälligkeit und Humanisierung hinzuzufügen.

Einige DAWs (ich weiß, dass Pro Tools dies tut) ermöglichen es Ihnen, die Parameter einer Gruppe ausgewählter MIDI-Events auf einmal zu randomisieren. Dies ist besonders effektiv für die Geschwindigkeit.

Darüber hinaus ist die manuelle Bearbeitung eine sehr effektive, aber auch sehr zeitaufwändige Technik, die auf einem Verständnis dafür basiert, wie die echten Instrumente funktionieren und wie sie gespielt werden. Zwei Beispiele sind Schlagzeug und Geigen (und andere Mitglieder der Streichergruppe).

Wenn Menschen Schlagzeug spielen, benutzen sie beide Hände, und praktisch kein Schlagzeuger hat identische Hände. Auch beim Spielen eines sich wiederholenden Musters ist es für einen Menschen sehr schwierig, es nicht leicht zu "schwingen". Damit meine ich, dass die beiden Schläge nicht perfekt gleichmäßig verteilt sind, normalerweise ist jeder zweite Schlag etwas zu früh, und der pünktliche Schlag ist normalerweise etwas lauter. Wenn Sie also für Schlagzeug jeden ungeraden Schlag (den ersten, dritten, fünften usw.) nehmen und ihn etwas lauter machen und dann jeden geraden Schlag (zweiten, vierten, sechsten usw.) nehmen und ihn zeitlich leicht nach vorne verschieben, können Sie erstellen ein realistischerer Klang.

Ähnliches gilt für Streichinstrumente. Der Aufwärtsbogen klingt anders als der Abwärtsbogen. Außerdem ist es fast unmöglich, ein perfektes Tremolo auszuführen - das Timing wird nur so leicht verzerrt sein. Oft besteht die Lösung darin, ein separates Tremolo-Sample zu verwenden, sodass Sie durch das Ändern von Samples in einer Darbietung möglicherweise die gewünschten Artikulationen erstellen können. Gleiches gilt für Trommeln mit Wirbeln.

Es gibt viele andere kleine Details, über die man nachdenken muss. Genügend Legato-Noten, die auf einer Klarinette gespielt werden, erscheinen seltsam, weil der Spieler keine Zeit zum Atmen hat. Kleine winzige Details, die jeder bemerkt, ohne zu wissen, dass sie es bemerkt haben.

Gute Antwort! Wenn ich am Computer Musik schreibe, gehe ich immer von Hand durch und ändere alle meine Automatisierungskanäle so ab. Für eine einzelne Note ändere ich sogar ADSR, Reverb und Amplitude auf leicht zufällige Weise, um zufällige Variationen nachzuahmen, die immer von einem Menschen eingeführt werden, der in einer Umgebung spielt, die auf komplexe Weise mit Sound interagiert. Es ist eine Menge Arbeit, aber mit einigen ziemlich guten Samples kann man damit ziemlich weit kommen.
@syntonicC Klingt so, als bräuchten Sie einen zufälligen LFO, den Sie als Midi-Controller verwenden können, um Dinge automatisch zu randomisieren. Es gibt DAWs (mit Sicherheit Pro Tools), die Randomizer für alle Arten von MIDI-Daten enthalten. In Pro Tools können Sie eine beliebige Anzahl von MIDI-Events auswählen, zu den Vorgängen wechseln und alle Parameter für alle Events auf einmal randomisieren, wobei Sie steuern können, wie weit die Parameter zufällig abweichen können. Vielleicht sollte ich das als Humanisierungstechnik zur Antwort hinzufügen.
" Genügend Legato-Noten, die auf einer Klarinette gespielt werden, werden seltsam erscheinen, weil der Spieler keine Zeit zum Atmen hat. " Kreisatmung :)
Ich verwende Musescore, und es ermöglicht das Bewerten der Bogenrichtung auf Saiteninstrumenten. Ich bin mir nicht sicher, ob es MIDI-Events für die Bogenrichtung generiert oder ob sein Wiedergabemodul verschiedene Samples aus einem Soundfont abspielen kann (falls verfügbar), aber ich kann zumindest die Bogenrichtung bewerten.
@Steve Ich schreibe gerade ein großes Projekt in Musescore. Aber ich erwarte nicht, dass Musescore wirklich eine Leistung aus der Partitur erbringt. Ich höre es mir wirklich nur an, um zu sehen, wie die Melodien und Harmonien spielen. Manchmal verbringe ich zusätzliche Zeit mit der Artikulation, wenn das genaue Gefühl wichtig ist. Das Problem ist, dass Sie Musescore nicht wirklich humanisieren können, da es sich nicht leicht für Änderungen auf Mikroebene eignet. Es soll nur das Makro widerspiegeln. Die Blaupause. Sie müssen eine Art echte oder gefälschte Performance aufbauen, und Musescore ist nicht dieses Werkzeug.
Um die Unterstützung für „ Einige DAWs ermöglichen es Ihnen, die Parameter einer Gruppe ausgewählter MIDI-Events auf einmal zu randomisieren. “ hinzuzufügen, hat Mixcraft eine buchstäbliche „ Humanize Notes “-Funktion für MIDI-Noten (Haftungsausschluss: nicht verbunden, nur ein glücklicher Benutzer davon )

Gibt es einen Trick, um die Partitur weniger "computergeneriert" klingen zu lassen?

Bestimmt. Wie Sie vielleicht wissen, ist der größte Teil der heute produzierten Musik, einschließlich Popsongs und Filmmusik, computergeneriert. Nur die berühmtesten Sänger und Spielfilme können es sich leisten, Musiker für die Aufnahme ihrer Musik zu engagieren, weil es so teuer ist. Das breite Publikum wird es nicht merken, obwohl es die aufgenommene Musik unbewusst "besser" finden mag.

Du suchst einen eigenen Beruf: Musikproduktion.

(...) dennoch erzielen sie viel menschlicher klingende Ergebnisse

Es dauert Jahre, wenn nicht Jahrzehnte, den Musikproduktionsprozess zu meistern. Die Produktion eines 4-minütigen Soundtracks kann ein Team von 3 Ingenieuren einen Monat in Anspruch nehmen, wobei Hardware und Software verwendet werden, die sich leicht auf Hunderttausende von Dollar summieren. Wenn Sie gerade erst anfangen, seien Sie nicht enttäuscht, wenn Ihr Soundtrack nicht annähernd so gut ist, wie Sie es gerne hätten.

Der erste Schritt ist die Anschaffung einer Digital Audio Workstation Software, kurz DAW. Aus Ihrer Frage geht nicht hervor, ob Sie bereits einen haben oder nur Sounds direkt aus der Partitursoftware rendern.

Der zweite Schritt ist, ein gutes virtuelles Instrument zu bekommen. Eine hochwertige virtuelle Instrumentenbibliothek ist sehr teuer. Garritan Personal Orchestra ist wegen seines niedrigen Preises und seiner Einfachheit gut für Anfänger geeignet, aber Sie haben keine detaillierte Kontrolle über Notenartikulation, Atmung, Vibrato usw.

Unabhängig davon, welche Bibliothek Sie verwenden, müssen Sie ihr volles Potenzial ausschöpfen. Öffne die DAW, starte das Instrument, fummele an den Einstellungen herum und spiele es dann auf einem Keyboard. Beobachten Sie, wie gut Sie einen menschlichen Spieler nachahmen und Noten mit einer Vielzahl von tonalen Eigenschaften erzeugen können.

(...) längere Noten werden über lange Zeiträume perfekt gehalten (sie klingen nicht ab)

Der dritte Schritt besteht darin, jedes Instrument Zeile für Zeile in die DAW einzuspielen und die Daten aufzuzeichnen. Das ist der Hauptgrund, warum Ihr Sound „roboterhaft“ ist – ein echter menschlicher Spieler wird die Melodielinie interpretieren und sie musikalisch spielen. Wenn Sie einfach die MIDI-Daten aus der Score-Software in die DAW kopieren, wird es immer roboterhaft klingen. Dieser Vorgang wird einige Zeit in Anspruch nehmen, aber er wird Ihre Soundtrack-Qualität erheblich verbessern, selbst wenn Sie ein sehr billiges virtuelles Instrument verwenden. Es gibt "Humanisierungs"-Features in manchen Softwares, die im Grunde willkürlich einige Werte ausgleichen, aber meiner Meinung nach erreichen sie ihr Ziel nicht ganz.

Dazu benötigen Sie ein MIDI-Keyboard, ein Pedal und eine ASIO-Soundkarte. Für Einstiegsoptionen sollte diese Hardware erschwinglich sein, wenn Sie sich GPO leisten können.

Der nächste Schritt ist die Feinabstimmung der aufgezeichneten Leistungsdaten. Sie benötigen einige Hardware-Fader-Steuerungen, die auf den meisten MIDI-Keyboards enthalten sind. Sie werden zumindest die "Velocity"-Daten des MIDI, das die Lautstärke steuert, fein abstimmen wollen. Wenn Ihr virtuelles Instrument Vibrato steuern kann, großartig. Wenn es Legato gegen Staccato kontrollieren kann, sogar noch besser. Diese Parameter können entweder zusammen mit der Leistung oder in einem separaten Lauf aufgezeichnet werden.

Dieser Schritt ist optional: Wenn Ihre Orchesterpartitur 2 Instrumente erfordert, nehmen Sie sie mit verschiedenen virtuellen Instrumenten auf. In der realen Welt ist es sehr unwahrscheinlich, dass beide Flötisten genau das gleiche Flötenmodell verwenden. Wenn Sie den Ton direkt aus der Partitur "rendern", verdoppelt die Software einfach die Lautstärke desselben Instruments, was nicht realistisch ist. Das gleiche Prinzip gilt für die gesamte Holzbläser- und Blechbläser-Sektion ... Ich hoffe, Sie sehen jetzt, warum die Musikproduktion zeitaufwändig und teuer ist.

Dann müssen Sie alle Ihre Instrumente als Audiodaten "mischen". In einem echten Orchester sitzen einige Spieler näher am Publikum/Mikrofon und einige weiter entfernt. Sie haben im 3D-Raum einen unterschiedlichen Nachhall und eine andere Links/Rechts-Balance. Wenn Sie die Partitur direkt rendern, wird jedes Instrument gespielt, als ob es direkt neben dem Mikrofon wäre, weshalb es unwirklich klingt.

Ich hoffe, diese Antwort gibt Ihnen eine Vorstellung davon, wie Sie Ihren Soundtrack weniger "computergeneriert" und lebendiger gestalten können, und einige allgemeine Anweisungen, wenn Sie weiter forschen möchten.

Es kann möglich sein, zwei verschiedene Flötenklänge zu erhalten (z. B.), indem Sie einen auf der Tonhöhe und den anderen einen halben Schritt höher punkten und dann die scharfe Flöte um 100 Cent zu tief verstimmen. Unter der Annahme, dass das Instrument bei jeder Tonhöhe gesampelt wird, erzeugt das Zurückstimmen auf die beabsichtigte Tonhöhe Klänge, die sich von der Version auf der Tonhöhe unterscheiden, sowohl weil sie von verschiedenen Samples gespielt werden als auch weil sie den Tonhöhenverschiebungsalgorithmus der Software durchlaufen.
Zum Hauptpunkt hier stelle ich fest, dass das manuelle Spielen jeder Zeile die Leistung definitiv humanisiert. Aber es begrenzt auch die Virtuosität der Darbietung auf die der Person, die jede Zeile spielt – was in meinem Fall viel schlimmer klingen würde, als roboterhaft zu klingen. Es würde auch jeder Zeile das rhythmische Gefühl des MIDI-Instruments geben, mit dem sie aufgenommen wurde, das sich sehr vom echten Instrument unterscheiden kann; Beispielsweise muss eine MIDI-Keyboard-Performance keine Atemzüge machen, ein Blasinstrument jedoch schon.
@Steve Die Pitch-Shift-Methode erzeugt einen schrecklichen Sound, da sie aus demselben Soundsample stammen. Sie benötigen ein anderes Sample (mit einem anderen Satz von Obertönen). give every line the rhythmic feel of the MIDI instrument- Sie würden die Tastatur verwenden, um das bestimmte Instrument zu emulieren, das Sie spielen. Wenn ein echter Spieler in einem Intervall Luft holt und ein leichtes Decrescendo macht, tun Sie dasselbe.
Ich nehme Ihr Wort über die Pitch-Shift-Methode. Wie ich bereits erwähnt habe, kann ich nicht einmal ein Keyboard spielen, um wie ein guter Keyboarder zu klingen, geschweige denn Keyboard spielen, um wie eine Posaune zu klingen, obwohl ich es gespielt habe und weiß, dass einige Schritte Mundwechsel und andere Zugwechsel erfordern. Aber ich stelle mir vor, dass es möglich ist, mit genügend Geschick und Instrumentenkenntnissen.
Vielen Dank für die ausführliche Antwort, es hilft wirklich, den gesamten Prozess besser zu verstehen. GPO fand ich übrigens schon ziemlich teuer, war mir nicht bewusst, dass das in der Branche als "billig" gilt... :)
Neben ASIO gibt es viele effektive Treiber-Frameworks für Audio-Interfaces. Tatsächlich glaube ich nicht, dass Sie ASIO auf Macs verwenden können. So oder so, es kann jede beliebige Schnittstelle sein, es muss keine "ASIO"-Schnittstelle sein. @Steve Nachdem Sie komponiert haben und ein Gefühl für den Sound haben und wissen, wie er funktionieren wird, möchten Sie meistens eine menschliche Leistung für das Endprodukt, wenn Sie sie bekommen können. Vielleicht bedeutet das, einen Pianisten/Keyboarder einzustellen, der die Orchesterparts auf einem Keyboard-Controller spielt, wenn Sie es sich nicht leisten können, ein Orchester zu mieten.
Ich dachte, dass mein Synthesizer für jeden Ton eines Instruments (innerhalb seines natürlichen Bereichs) ein bestimmtes Sample verwendet und nur dann die Tonhöhe ändert, wenn es ausdrücklich dazu aufgefordert wird oder wenn er außerhalb des Bereichs der aufgenommenen Samples spielt. Basierend auf einem Experiment scheint das nicht der Fall zu sein, zumindest soweit ich es hören kann. Ich muss versuchen, meine Spielzeug-Glockenspiele (ich habe zwei) aufzunehmen und die Klänge der verschiedenen Noten von jedem zu vergleichen, nachdem sie alle auf die gleiche Tonhöhe verschoben wurden.

Ich würde 3 Schritte empfehlen, um die Leistung zu humanisieren.

  1. Verwenden Sie die Bedienfelder für die Instrumentensteuerung, um die Einstellungen jedes Instruments so anzupassen, dass das Timbre ansprechend ist. Bei einigen DAWs können Sie diese Steuerelemente auch automatisieren, sodass sie sich während des gesamten Tracks ändern können. Weitere Informationen zur Automatisierung von Steuerelementen in einem Plugin finden Sie im Handbuch Ihrer DAW. Beispielsweise können Sie in Reaper GPO als VST-Plugin ausführen und dann Automatisierungslinien zeichnen, um die Instrumentensteuerungsparameter während des Songs zu ändern.

  2. Machen Sie sich mit den MIDI-Steuerungen vertraut, insbesondere mit der Anschlagstärke. Dadurch wird verhindert, dass alle Noten gleich klingen, und Sie können eine menschenähnlichere Dynamik erzeugen.

https://usermanuals.garritan.com/GPO5/Content/controls.htm#Basic_controls

  1. Automatisieren Sie die Lautstärkeregler für jeden Kanal manuell. Dies ist zeitaufwändig, aber ein gängiges Werkzeug in der professionellen Produktion, um Dynamik zu erzeugen und die Instrumentierung jeder Sektion auszugleichen.