Eine lange kontinuierliche Aufnahme, beschleunigt, bis es "live" wird

Ich habe eine Idee für ein Videoprojekt (für dessen Produktion ich ein Studio beauftragen muss), aber in diesem frühen Stadium weiß ich noch nicht einmal, ob meine Idee umsetzbar ist.

Die Idee besteht darin, (stundenlanges) kontinuierliches/unterbrechungsfreies Filmmaterial von einer einzelnen Kamera in einen kurzen (ca : Das heißt, einige Teile könnten bis zu 64x beschleunigt werden, während andere Teile direkt verlangsamt werden könnten (sogar auf ein eingefrorenes Bild). Ist diese Art von Beschleunigungs-/Verlangsamungseffekt einer einzelnen Serienaufnahme unter einem bestimmten Namen bekannt?

Wo diese Idee komplizierter wird, ist, dass die Wiedergabe beginnen soll, während das Filmmaterial noch gedreht wird, und in Echtzeit/live wird, sobald es die Gegenwart einholt. Ist diese Art des Übergangs vom aufgezeichneten Filmmaterial zur Live-Übertragung unter einem bestimmten Namen bekannt?

Praktisches

Ich stelle mir vor, dass das aufgezeichnete Filmmaterial in „Stücken“ (z. B. anfangs jeweils eine halbe Stunde, zum Ende hin abnehmend, bis der Feed live ist) von der Kamera zum Editor übertragen wird. Jeder derartige Brocken könnte dann bearbeitet werden, um einen (kürzeren) "Bruch" des endgültigen Films zu erzeugen, der sofort an die Präsentationsanzeige weitergeleitet und zur Wiedergabe eingereiht wird.

Wenn es an der Zeit ist, mit der Wiedergabe zu beginnen, würden die in die Warteschlange eingereihten Chunks der Reihe nach mit der Wiedergabe beginnen, während weitere Chunks der Warteschlange hinzugefügt werden. Sobald das Filmmaterial live ist, würden diese Teile kaum mehr als einen typischen Videostream ausmachen (daher ist ein kleiner Puffer erforderlich, um mit Netzwerk- und Verarbeitungsverzögerungen fertig zu werden – aber je geringer die Verzögerung, desto besser).

Ich schätze, dass (damit die verschiedenen Filmabschnitte reibungslos und komfortabel wiedergegeben werden können, ohne Ruckeln/Strobben usw., aber dennoch eine ausreichende Auflösung haben, um interessant zu sein), verschiedene Kameraeinstellungen wie die Verschlusszeit je nach Art und Weise variiert werden müssen dieser bestimmte Abschnitt des Filmmaterials wiedergegeben werden soll.

Ich verstehe auch, dass einige rechenintensive Interpolationen erforderlich sein können, um die Übergänge zu glätten, und dies wird den Bearbeitungsprozess verzögern ...

Fragen

Meine Hauptfrage ist, ob diese Idee machbar oder völlig unrealistisch ist? Vielleicht würde allein der Zeitaufwand für die Bearbeitung des Filmmaterials ein solches Projekt unmöglich machen?

Wenn es machbar ist, würde ich gerne die Hauptrisiken für das Projekt aus Sicht des Videografen verstehen (abgesehen von Netzwerk-/Kommunikationsfehlern zwischen Kamera/Editor/Präsentation). Welche weiteren Herausforderungen sehen Sie und wie könnte man sie angehen?

Ich habe versucht, einige professionelle Studios wegen dieser Idee zu kontaktieren, aber bisher noch nicht viel Antwort erhalten. Ich bin wahrscheinlich an die falschen Stellen herangetreten, die vielleicht nicht die Ressourcen haben, die nötig wären, um eine so verrückte Idee in die Realität umzusetzen. Nach welchen Arten von Studios sollte ich suchen und welche Fähigkeiten sollte ich sicherstellen?

Sehr interessant. Muss die Endphase live sein oder darf es „fast“ live sein?
@DrMayhem: Was meinst du mit "fast"? Eine Verzögerung von wenigen Sekunden könnte akzeptabel sein, aber Minuten wären es definitiv nicht.

Antworten (2)

Die obige Antwort beantwortet die Hälfte Ihrer Frage, und ja, es ist trivial für jeden, der einen nichtlinearen Editor (NLE) wie Premiere Pro, Final Cut, Resolve usw. verwendet hat, um Speed-Ramp-Effekte zu erstellen. Der Film Koyaanisqatsi bietet viele visuelle Effekte, darunter das Beschleunigen und Verlangsamen der Zeit, was Ihnen helfen kann, sich die Möglichkeiten des Mediums besser vorzustellen. Aber NLEs sind wirklich nur für die Offline-Produktion.

Um Ihre zweite Frage dazu zu beantworten, wie Sie dies während des eigentlichen Schießens tun können, lautet die kurze Antwort nein, niemand hat dafür ein Standardsystem gebaut. Das Konzept der „sofortigen Wiedergabe“ (umfasst in einem System wie dem NewTek 3Play 425 ) veranschaulicht, wie Live-Feeds und kürzlich (sofort) aufgezeichnete Clips zusammen verwendet werden können, während die Wiedergabegeschwindigkeit verlangsamt wird. Und obwohl es theoretisch möglich ist, die Wiedergaberate zu beschleunigen (vorbehaltlich verfügbarer Inhalte in einem Puffer), hat das noch niemand versucht. Stattdessen bearbeiten die Leute offline und präsentieren nach der Bearbeitung ein fertiges Produkt.

„Die Idee besteht darin, (Stunden) kontinuierliches/unterbrechungsfreies Filmmaterial von einer einzelnen Kamera in einen kurzen (etwa eine halbe Stunde) Film zu verwandeln, indem die Wiedergabegeschwindigkeit variiert wird, um „langweilige“ Abschnitte zu beschleunigen und gleichzeitig die Aufmerksamkeit auf Schlüsselmomente zu lenken Interesse: Das heißt, einige Teile könnten bis zu 64-fach beschleunigt werden, während andere Teile direkt verlangsamt werden könnten (sogar auf ein eingefrorenes Bild). unter einem bestimmten Namen bekannt?".

Es heißt "Speed ​​Ramp", vorausgesetzt, es handelt sich um einen sanften Übergang und nicht um einen " Jump Cut ". Siehe "ARRI Ramp Tutorial - David E. Elkins" ( .PDF ) oder ARRIFlex D-21 , aber es geht nur von 1 bis 60 FPS.

Zusammenfassend: Kontinuierliches langes Video, mit doppelter oder geringer Aktivität, Frames gelöscht; Alternativ können Sie die Bildrate manuell mit sanftem Rampen steuern.

  • Verwenden Sie AVISynth auf einem Laptop mit angebundener Kamera.

  • Verwenden Sie einen „ Duplicate Frame Detector “ oder Fizicks „ GetDupe “ und „ MvTools V2 “, um Bewegungen präziser und in bestimmten Teilen des Frames zu erkennen.

Die Ausgabe kann ein flüssiges Video mit einer Einzelbildrate von einer Eingabe mit variabler Bildrate sein.

Technischer Hinweis: Es versteht sich von selbst: Wenn Sie 64x beschleunigen und es gibt eine langweilige Stunde, dann wird es entweder in weniger als einer Minute angezeigt oder es dauert 64 Stunden, um eine langweilige Stunde zu erstellen - wie auch immer, AVISynth kann den Prozess automatisieren. Wenn Sie eine halbe Stunde Ausgabe wünschen und es nichts Interessantes gibt, also 64x beschleunigt wird, dann werden von dem Zeitpunkt, an dem Sie mit der Aufnahme beginnen, bis zu dem Zeitpunkt, an dem Sie live gehen können, (30*64)-30 Minuten vergehen; 31,5 Stunden Verzögerung, dann kann ein halbstündiges Video live gestreamt werden. Natürlich ist das ein Worst-Case-Szenario.

Erstellen Sie ein kontinuierliches Video oder Teile , denen Sie beitreten können. Was immer Sie wollen, kann in AVISynth entweder direkt oder mit einem (oder mehreren) der 1000 Plugins durchgeführt werden; Wenn es zufällig nicht genau das gibt, was Sie wollen, ist der Quellcode verfügbar und Sie können einen neuen Effekt erstellen.

Es gibt 10.000 Experten, aber es ist einfach genug, es selbst zu tun; Da Sie bereit sind zu zahlen, ist es viel einfacher, jemanden zu finden. Es gibt Dutzende von Foren, in denen Menschen kostenlos helfen.

Betrachten Sie für eine „Nur-Hardware-Lösung“ eine „ motion detecting camera“, die eine Reihe von Standbildern mit einer regelmäßigen Rate aufnimmt, wenn Bewegung vorhanden ist, und auf einen voreingestellten Wert verlangsamt, wenn keine Aktivität vorhanden ist (abhängig von der Kamera und den Einstellungen). Dadurch erhalten Sie ein „Jump-Cut-Video“ (kein sanftes Rampen), das Sie bearbeiten müssen, bevor Sie „fast live“ gehen können.