Eine menschliche Performance in Midi vortäuschen

Ob diese Frage wirklich hierher gehört oder in einen anderen Teil von StackExchange, weiß ich nicht. Wenn die breite Öffentlichkeit oder die Admins eine Verschiebung an einen anderen Ort wünschen, würde ich dem natürlich gerne entsprechen.

Meine Frage betrifft die manuelle Bearbeitung einer Midi-Datei (erzeugt von einer Notationssoftware) so, dass die Wiedergabe eine menschliche Live-Performance besser nachahmt als ohne Bearbeitung. Mir ist klar, dass dies eine schrecklich ineffiziente Art ist, Dinge zu tun, und dass es viel einfacher wäre, das Stück selbst auf meinem Midi-Keyboard zu spielen. Aber angenommen, man wollte es wirklich auf die schwierige Art und Weise machen, indem man die numerischen Werte aller Midi-Parameter aller Noten einzeln editiert, was wäre der klügste Weg, dies zu tun? Vorweg: Ich finde die Ergebnisse der verschiedenen Randomisierungs-/Humanisierungsalgorithmen nicht sehr überzeugend, jedenfalls nicht für sich genommen.

Alle Tipps oder Tricks werden herzlich geschätzt.

Vielen Dank für Ihre Kommentare oder Antworten!

Es hängt stark vom Instrument und Spielstil ab, den Sie zu reproduzieren versuchen. Wenn Sie beispielsweise versuchen, Schlagzeug zu humanisieren, müssen Sie bei Fills einen Wechsel zwischen der linken und der rechten Hand erzeugen, aber die Arbeit mit einem einzelnen Kickpedal hat je nach Fersenposition usw. ein anderes Gefühl. Grundsätzlich, wenn Sie wissen, wie man das Instrument spielt, Sie weiß viel darüber, wie man es humanisiert. Wenn Sie dies nicht tun, dann haben Sie eine riesige Bergauf-Reise vor sich.
Gut formulierte Frage. Meiner Meinung nach besteht das Problem bei all diesen „Humanisierungsalgorithmen“ darin, dass ihre Prämisse völlig fehlerhaft ist: Die menschliche Leistung ist nicht nur eine ungenaue Wiedergabe des genau quantisierten Timings und der Intonation, die ein Midi-Sequenzer normalerweise ausgeben würde. Ich sehe es gerne umgekehrt: Ein festes Zeitraster und ein festes 12-Edo-Tonraster sind nur ungenaue Annäherungen daran, wie eine gute menschliche Leistung funktioniert.

Antworten (4)

Ich bin mir nicht sicher, ob dies die Frage selbst tatsächlich beantwortet, kann aber eine Perspektive bieten, was mit der Humanisierung zu tun hat.

Das „Problem“ mit der Humanisierung ist oft die Summe der einzelnen Menschen, die den letzten Groove bilden – selbst wenn es eigentlich alles derselbe Mensch war – an sich variiert im Laufe der Zeit.

Die Ungenauigkeiten tragen letztendlich zum Gefühl des gesamten Stücks bei, obwohl sich das Gegeneinander zwischen Genauigkeit und „Groove“ im Laufe des Stücks selbst ändern kann und mit fortschreitender Aufführung enger wird.

Das perfekte anschauliche Beispiel ist meiner Meinung nach Stevie Wonders „Superstition“.

Denken Sie daran, dass die Instrumentierung nur aus Schlagzeug, Syn-Bass, 2 Clavinet-Tracks [alle gespielt von Stevie] und 2 Blechbläser-Tracks besteht.
Zuerst wurden die Trommeln gelegt, wie es seine übliche Arbeitsweise war. Ich weiß nicht, in welcher Reihenfolge die anderen aufgenommen wurden, aber Sie können ziemlich sicher sein, dass die Blechbläser zuletzt waren.

Als Ganzes genommen muss es als einer der besten Groove-Tracks aller Zeiten eingestuft werden (ich bin sicher, dass ein bisschen Meinung zu SE erlaubt wäre ;-), aber wenn Sie wirklich analysieren, was jedes Instrument tut, ist es alles ein bisschen chaotisch.

Für die gesamte erste Strophe scheint nichts besonders synchron zu sein – ja, es ist ein großartiges Riff, aber die Clavis wandern ineinander hinein und heraus, die Drums drücken und ziehen ein bisschen, aber nicht gleichzeitig mit den Clavis. Als die Blechbläser hereinkommen, klingen sie, als hätten sie vereinbart, dass „der Letzte, der fertig ist, das Bier kauft“, also versuchen sie, so schnell wie möglich zum Ende zu kommen.

Die Blechbläser setzen sich für die Länge des Tracks in dieser Richtung fort – aber tatsächlich bindet dieses scheinbare Rauschen den Groove wirklich zusammen und treibt ihn sehr hart an.

Die zweite Strophe macht so ziemlich das Gleiche wie die erste, nur ein bisschen straffer – auch Ihr Ohr beginnt den einzelnen Komponenten nachsichtiger zu werden, da Ihr „Herz“ wirklich beginnt zu begreifen, dass das, was tatsächlich passiert, wirklich etwas Besonderes ist.

Wenn Sie die mittlere 8 hinter sich haben, sind Sie völlig süchtig, und obwohl sich die Clavis zu den Trommeln festziehen, sind die Trommeln selbst gelegentlich immer noch etwas wandernd, einige der Fills lassen ein wenig zu wünschen übrig. .. & die Blechbläser sind immer noch in diesem Rennen bis zum Ende ...

...aber dann kümmert es dich nicht mehr!
Der Track gewinnt, dein analytisches Gehirn verliert und du bist im Moment gefangen.

Spannende Beschreibung. Erinnert mich an eine Streichquartett-Aufnahme, die ich mal im Radio gehört habe. Bei jeder anderen Aufführung hätte mich ihre Intonation zum Winden gebracht, aber sie machten alles so aufregend, es war mir egal!

Wenn Sie die beste Belohnung für den geringsten Aufwand wollen, würde ich mit der Tempospur beginnen. Finden Sie heraus, wie die Musik auf der Ebene einzelner Beats im Takt oder sogar Unterteilungen von Beats "phrasiert" werden sollte. Oft trifft das gleiche rhythmische Gefühl oder der gleiche Groove auf viele ähnliche Phrasen zu, sobald Sie es gefunden haben. Das Tempo um etwa 5 % bei einzelnen Beats zu verändern, schlägt einem oft nicht zwischen die Ohren, bricht aber die unmenschliche Genauigkeit.

Manchmal klingt das "Dehnen" einer Note auf das Doppelte ihrer Nennlänge immer noch so, als würde sie "im Takt" gespielt. In anderen Fällen sticht eine winzige Änderung wie ein wunder Daumen hervor. Menschliche Wahrnehmung passt nicht zu wissenschaftlichen Messinstrumenten!

Zumindest für meine Ohren haben Sie einen wiederholten Rhythmus wie 3 Viertelnoten, gefolgt von 2 Achteln, der Rhythmus klingt nur "zeitgerecht", wenn die Achtelnoten ein etwas schnelleres Tempo als die Viertel haben. Ihre Ohren und Ihr Musikstil können sich natürlich unterscheiden, und Sie möchten nicht unbedingt, dass es „genau im Takt“ klingt.

Das Hinzufügen einer randomisierten computergenerierten "Humanisierung" (durch Anstoßen des Anfangs und Endes von Noten relativ zu den Beats) zusätzlich zu dieser Art von rhythmischen Optimierungen scheint besser zu funktionieren als das Hinzufügen zu einem mathematisch präzisen Rhythmus.

Ich vermute, dass auch menschliche Spieler unbewusst so arbeiten. Ich habe einmal einen Chorleiter sagen hören, dass man, wenn man 30 gute Sänger, die noch nie zusammengearbeitet hatten, einen Chor gründet, mit 30 verschiedenen Ideen darüber anfängt, was „in der Zeit“ ist, und nur warten muss, bis sie zugehört haben einander lange genug, um zwischen ihnen eine Art Kompromiss zu finden. Erst nachdem sie diesen Punkt erreicht hatten, konnte man anfangen , die Aufführung zu leiten , anstatt nur den Takt zu schlagen.

Das Hauptproblem bei einfach programmierten und dann "humanisierten" / randomisierten Teilen ist nicht die Art der Variationen an sich, sondern die Tatsache, dass die Teile ihre Abweichung nicht voneinander aufbauen und dass frühere Fehler das nachgelagerte Timing nicht beeinflussen. Immer noch besser als ein gerader Beat, aber man muss sich an sehr kleine Mengen halten, sonst wird es sehr auffällig.

Haben Sie versucht, einen gemeinsamen Swing/Groove zusammen mit dem Randomizer anzuwenden? Wenn Sie nur ein paar leicht veränderte Versionen desselben Grooves verwenden und sowohl das Ausmaß, in dem er auf jeden Teil abfärbt (sowohl Timing als auch Velocity), zusammen mit der Menge an zufälliger Varianz anpassen, sollten Sie ziemlich weit kommen. Für die spezifische Frage "Die numerischen Werte aller Midi-Parameter aller Noten einzeln bearbeiten, was wäre der klügste Weg, dies zu tun?" Dies ist definitiv die Antwort, da Sie damit das Timing Ihrer Parts bearbeiten können, ohne jede einzelne Note einzeln zu optimieren.

Es gibt jedoch einige sehr coole Optionen, um die Dinge weiter voranzutreiben. Das bei weitem beste Tool, das ich kenne, ist James Holdens „Group Humanizer“-Set von Max for Live-Geräten. Es basiert auf einem Papier, Synchronisation in menschlichen musikalischen Rhythmen und gegenseitig interagierenden komplexen Systemen , das im Grunde die gleichen Antworten gibt, die Sie bekommen haben, aber mit viel Wissenschaft.

Wir haben gezeigt, dass die rhythmische Synchronisation zwischen Individuen (sowohl Musikern als auch Laien) ein Langzeitgedächtnis der Interbeat-Intervalle des Partners bis zu mehreren Minuten aufweist, wofür eine Erklärung in einem physiologisch motivierten stochastischen Modell für MICS vorgeschlagen wird. Das MICS-Modell legt nahe, dass die skalenfreie Kopplung der beiden Subjekte hauptsächlich durch die Anpassung an Abweichungen zwischen ihren Schlägen entsteht.

Grundsätzlich lässt das Gerät einen Teil Master sein und bis zu 10 Slaves folgen. Es ist für den Live-Einsatz gemacht, kann aber natürlich auf viele verschiedene Arten für diese Art von Sachen verwendet werden. Zitat von Holden:

Unter Verwendung des in Holger Hennigs Forschung vorgeschlagenen Modells habe ich jetzt eine Reihe von Max-for-Live-Geräten entwickelt, die in der Lage sind, ein realistisches Timing in mehrere computergenerierte Teile einzufügen, als ob sie von Musikern gespielt würden, die zusammen auftreten. Es kann sogar auf den Input eines echten Musikers hören (z. B. des Jazz-Schlagzeugers, der mit mir in meinen Live-Shows spielt) und auf seine oder ihre Timing-Fehler auf natürliche Weise reagieren.

Hier ist ein Artikel , der das Thema behandelt, Links zum Gerät und ein Video, das es in Aktion zeigt. Meiner Meinung nach ein etwas fragwürdiges Musikstück, aber es zeigt definitiv, was für ein unglaubliches Werkzeug dies ist. Sie können es sogar so einstellen, dass es Abletons Master-Tempo mit dem Drift pusht und zieht.

Für Leute, die Ableton nicht mögen, denke ich, dass die Patches für die eigenständige Max/MSP-Nutzung angepasst werden könnten, weiß aber nicht, ob das getan wurde.

Fügen Sie Unvollkommenheit, Varianz hinzu. Überlegen Sie, welche Dynamiken zu perfekt umgesetzt werden und spielen Sie damit herum. Die beiden wichtigsten sind Zeit und Amplitude, aber Sie können auch mit der Klangfarbe und allem anderen, was Ihr System verarbeiten kann, herumspielen.

Beginnen Sie mit der Zeit. Stellen Sie einige Noten so ein, dass sie etwas früher oder später beginnen, als sie sollten. Nach Gehör urteilen. Für ein strafferes Gefühl können Sie die Beats unverändert lassen und mit den Upbeats und anderen Noten spielen, die nicht in einen Beat fallen. Machen Sie dasselbe mit der Länge der Noten.

Sie können das Timing einer Performance extrahieren und mit Tools wie Ableton Live auf eine andere anwenden, also können Sie auch das ausprobieren.

Spielen Sie nun mit der Lautstärke jeder Note. Alle Noten mit der gleichen Velocity klingen nicht menschlich, geben Sie ihnen also eine gewisse Randomisierung innerhalb eines Bereichs (abhängig von der Dynamik, die Sie anstreben).

Usw. Gleiches gilt für jede Dynamik, die Sie anfassen können. Varianz, etwas Zufälligkeit, aber innerhalb einer Spanne (vielleicht ist die Spanne die Fähigkeit unseres emulierten Darstellers). Wenn Sie dies beispielsweise bei Perkussionsinstrumenten tun, ist das Anwenden von Varianz auf das Holz sehr effektiv, da sie unterschiedlich klingen, je nachdem, wo Sie das Schlagzeug anschlagen, und nicht einmal der erfahrenste Percussionist der Welt trifft jedes Mal genau dieselbe Stelle.

Mir ist klar, dass dies eine schrecklich ineffiziente Art ist, Dinge zu tun, und dass es viel einfacher wäre, das Stück selbst auf meinem Midi-Keyboard zu spielen. Aber angenommen, man wollte es wirklich auf die schwierige Art und Weise machen, indem man die numerischen Werte aller Midi-Parameter aller Noten einzeln editiert, was wäre der klügste Weg, dies zu tun? Vorweg: Ich finde die Ergebnisse der verschiedenen Randomisierungs-/Humanisierungsalgorithmen nicht sehr überzeugend, jedenfalls nicht für sich genommen.

Diese Algorithmen implementieren die Varianz, auf die ich mich beziehe. Sie tun, was ich vorgeschlagen habe, aber automatisch. Vielleicht stimmen Sie sie nicht ab und/oder verstehen sie nicht richtig. Vielleicht erwarten Sie zu viel von ihnen, die Mechanik und Akustik einer menschlichen musikalischen Darbietung sind sehr komplex, und es ist (zumindest meines Wissens) immer noch nicht möglich, einen menschlichen Spieler zu 100% genau zu emulieren.

Vielen Dank für Ihre schnelle und dennoch gründliche Antwort! Um es klar zu sagen, mein Ziel ist es nicht, einen menschlichen Spieler mit 100% Genauigkeit zu emulieren (was, wie Sie sagen, unmöglich ist), sondern meine Figur ein bisschen lebensechter zu machen.
@KimFierens Ich habe diese Antwort in diesem Sinne geschnitzt. Der 100%-Teil bestand darin, mehr in das Thema einzutauchen, nicht um zu implizieren, dass Sie nach einer perfekten Emulation suchen.
Ich habe auch nicht angedeutet, dass Sie es angedeutet haben. :-) Zwei kleine Anschlussfragen, falls Sie nichts dagegen haben: Haben Sie einen allgemeinen Ratschlag (natürlich mit vielen Ausnahmen), wie man die Dynamik innerhalb einer Phrase verteilen sollte? Dasselbe gilt für (Änderung des) Tempos. Mein Stück ist übrigens lyrisch und romantisch, da brauche ich viel Ausdruck.
Es hängt davon ab, ob. Unterschiedliche Ansätze führen zu unterschiedlichen Ergebnissen. Sie können alles zufällig verteilen, oder Sie können ganz bestimmte Werte für jede Note einzeln entwerfen, als ob Sie die Aufführung entwerfen würden (die Sie sind). Außerdem ändern Sie nicht das Tempo, sondern die Position der Noten im Takt. Es ist eine wichtige Unterscheidung.
Ein kleiner Trick ist, dass Sie eine Note, die Sie betonen möchten, nicht nur etwas anheben, sondern auch etwas verlängern können.