Verzerren von Videos mit Live-Sound

Ich starte ein Kunstprojekt, das die Erstellung eines Programms (das auf meinem Computer läuft) erfordert, das das Bild des projizierten Videos entsprechend dem Ton/Rauschen verzerren kann, das ein Mikrofon live aufnimmt.

Die Verzerrung soll auf die Dauer und Intensität des Klangs reagieren, und ich suche nicht nach Glitch-Art, ich suche nach einer sanfteren Verzerrung (aber meine größte Sorge ist nicht das Aussehen der Verzerrung, sondern die angemessene Reaktion darauf der vom Mikrofon aufgenommene Ton)

Gibt es so etwas? oder muss ich das Programm von Grund auf neu erstellen?

Kam dies jemals zu einem vernünftigen Ergebnis?

Antworten (3)

Es gibt mehrere Programme, mit denen Sie das tun können. Ein sehr beliebtes Tool in der visuellen Live-Branche ist MAX (insbesondere Max for Live). Es ist eine visuelle Programmiersprache zum Erstellen von Visuals für Live-Auftritte, die sich auch in einige Tools wie Ableton Live integrieren lässt.

Ein Programm, das ich persönlich bei der Arbeit verwende, heißt vvvv , es ist ebenfalls ein visuelles Programmierwerkzeug, das sehr komplexe Programme ermöglicht und mehr "Mehrzweck" als MAX ist und eine riesige Sammlung von Add-Ons bietet, um mit allen Arten von Peripheriegeräten und Eingaben zu arbeiten Geräte. Für den Anfang empfehle ich dringend, einen Blick auf diesen Spickzettel zu werfen , vvvv hat eine SEHR minimalistische GUI und verlässt sich stark auf Verknüpfungen und versteckte Menüs für erweiterte Einstellungen und Funktionen.

Leider nur für Windows verfügbar, aber im Gegensatz zu Max ist es absolut kostenlos, es sei denn, Sie möchten es kommerziell nutzen, dann müssen Sie eine kommerzielle Lizenz kaufen (keine Unterschiede zur kostenlosen Version, Sie laden immer noch dieselbe Version herunter, haben aber die Erlaubnis, Geld zu verdienen damit).

Eine ebenfalls kostenlose Lösung, die jedoch nur auf dem Mac verfügbar ist, wäre Quartz Composer, der mit Xcode geliefert wird. Es ist auch eine visuelle Programmiersprache, die ähnlich wie vvvv und MAX funktioniert.

E: Eine andere Lösung wäre MadMapper , das eher für Projektionsmapping gedacht ist, aber auch Videos mit Filtern macht, die auf Ton reagieren können. In kann sich afaik auch in Live integrieren.

Verschiedene VJ-Software bietet auch viel Unterstützung für solche Dinge.
Tatsächlich ist vvvv in der VJ-Szene weit verbreitet.

Ich empfehle auch VVVV . Sie könnten einen Patch erstellen, der viele Videoeffekte mit Pegeln vom Mikrofoneingang steuert. Werfen Sie einen Blick auf Videoeffekte und Compositing-Tutorials

Grundlegende Tutorials und Beispiele zur Verwendung von TextureFX-Knoten, um mit den gleichen Tricks und Techniken zu arbeiten, die Sie zuvor nur in Photoshop oder After Effects erreichen konnten. Und das Beste: Alles lässt sich in Echtzeit animieren.

Es gibt eine Vielzahl von Software für die Bearbeitung von Live-Videos, von den minimalistischen, entwicklerorientierten vvvv und pd bis hin zu den ästhetisch ansprechenderen Max/MSP und Troikatronix Isadora .

Ich habe jedes davon in gewisser Weise verwendet, und persönlich bevorzuge ich Isadora, da es intuitiver zu bedienen ist und einen grundlegenden Patch in kurzer Zeit zum Laufen bringt als die anderen. MAX wurde ursprünglich als modulare Audio-Manipulations-Engine entwickelt, und MSP wurde später entwickelt, um Videofunktionen hinzuzufügen.

vvvv und pd sind beides sehr mächtige Werkzeuge, aber besser geeignet für die prozedurale Inhaltsgenerierung oder Inhaltsanalyse als für die direkte Videomanipulation, und sie können als schnittstellenarm angesehen werden. Dadurch haben sie eine vergleichsweise steile Lernkurve. Sie sind jedoch erweiterbarer und vielseitiger als Isadora und Max und es lohnt sich, sich damit auseinanderzusetzen, wenn Sie die Zeit dafür aufwenden können.

Ich stelle oft fest, dass es möglich ist, die Stärken jedes dieser Paradigmen auszuspielen – zum Beispiel gab es viele Gelegenheiten, bei denen ich vvvv und Isadora im Tandem verwendet habe; vvvv führt eine Live-Audioanalyse in Echtzeit durch und sendet Synchronisierungsdaten (in Bezug auf Pulse und BPM) über OSC an Isadora, das dann die Videomanipulation unter Verwendung dieser Daten durchführt. Wenn Sie die Möglichkeit haben, kann es sich lohnen, dies zu prüfen.