Beeinflusst die Abtastrate den Synchronisierungsprozess mit einer Videoquelle?

Ich habe Interviews mit einer Point-and-Shoot-Kamera für das Video und meinem Android-Telefon mit Smart Recorder aufgezeichnet. Die Kamera nimmt in MOV auf und ist mit Mono-Audio unkomprimiert. Dann benutze ich mein Smartphone, um mich und den Interviewten aufzunehmen, da die Kamera weit weg ist, um uns zu hören. Das Audio ist in .wav und ich verwende Premiere Pro, um sie auszurichten. Während es am Anfang funktioniert, gerät es manchmal auf magische Weise plötzlich aus dem Takt, also muss ich den Ton schneiden, damit ich aufholen kann.

Ich bin verwirrt und hätte gerne Ihre Einsichten, wie Sie dies möglichst gering halten und beseitigen können. Meine Theorie ist, dass die Abtastrate ein Problem ist. Wenn dies nicht korrekt ist, geben Sie bitte einen anderen Hinweis.

Wenn es wirklich aus der Synchronisierung springt, ist es wahrscheinlich kein Ratenproblem, was dazu führen würde, dass es driftet. Aber oft scheinen die Dinge aus dem Takt zu geraten, nur weil es plötzlich auffällt. Holen Sie sich als Experiment einen Klöppel oder ähnliches und schießen Sie einmal alle paar Sekunden für die Länge eines gewöhnlichen Interviews. Springt es wirklich heraus oder driftet es? Das wird helfen, eine Lösung zu finden.
@JimMack Danke für den wunderbaren Rat. Das mache ich später.

Antworten (3)

Sie können so erkennen, welche aus dem Takt geraten:

Richten Sie Ihre Kamera und Ihr Telefon wie gewohnt ein. Stellen Sie eine Uhr, die Sekunden anzeigt, direkt vor die Kamera. Dann, auch wenn das langweilig klingt, nehmen Sie auf, wie Sie die Sekunden zählen.

Synchronisieren Sie Video und Audio in Premiere Pro wie gewohnt. Wenn sie nicht mehr synchron sind, überprüfen Sie, ob das Video eine Sekunde verloren hat oder ob das Audio eine Sekunde verloren hat. Sie sollten in der Lage sein, anhand des sich wiederholenden Rhythmus zu erkennen.

Dann sollten Sie, wie @AJHenderson betonte, das defekte Gerät ersetzen. Ich stimme zu, dass eine Kamera, die einen externen Audioeingang akzeptieren kann, wahrscheinlich die beste Option ist, obwohl sie teuer ist.

Ich habe eine andere Theorie, da das Telefon, das ich verwende, zu meinem Tablet ständig Bilder auf flickr hochlädt, verzögerte sich die Audioaufnahme etwas.
Merkwürdige Frage: Fernseh- und Filmproduzenten nehmen ihre Audiodaten normalerweise getrennt von ihrer Quelle auf und sie werden in der Post synchronisiert. Sie schließen ihr Mikrofon nicht direkt an die Kamera an, oder?
@MrA - AJ Henderson würde dies wahrscheinlich besser beantworten, aber wenn ich mich an die Filmschule erinnere, lautet die Antwort nein - sie werden auf separaten Geräten aufgenommen und in der Postproduktion synchronisiert. Ich glaube, der Vorteil einer Videokamera besteht darin, dass beim Anschließen eines Mikrofons der Ton für Sie mit dem Video synchronisiert wird und Sie außerdem den Vorteil eines hochwertigen Mikrofons haben, das in der Nähe der Tonquelle platziert ist. (Wenn diese Antworten hilfreich sind, geben Sie ihnen bitte eine positive Stimme! Danke.)
re: sep-sound. Dies war die Regel bei Filmaufnahmen, ist aber bei Videoaufnahmen seltener. Moderne Videorekorder haben hervorragende Tonspuren, locker so gut wie eine Nagra. Selbst wenn Sep-Sound verwendet wird, ist es klug, wenn das Videoaufzeichnungsmedium Ton aufnehmen kann, es mit der gleichen oder einer kompatiblen Quelle zu speisen, um die spätere Synchronisierung und Sicherung zu erleichtern. Und Profis, die Sep-Sound verwenden, verwenden häufig einen gemeinsamen Timecode, der auf allen Geräten aufgezeichnet wird (oder sie synchronisieren Geräte-TCs zwischen den Aufnahmen). Aber auf jeden Fall ist „ein Mikrofon an die Kamera anzuschließen“ keine professionelle Praxis – es gibt immer ein Mischpult.

Es gibt viele Möglichkeiten, aber die wahrscheinlichsten beinhalten alle eine bessere Ausrüstung. Die schwerwiegendsten Synchronisierungsprobleme mit Telefonen treten in der Regel bei Telefonen auf, die Videos mit variabler Framerate verwenden oder billige Encoder haben, die dazu neigen, Frames zu löschen oder zu verzögern.

Wenn Sie Videos aufnehmen, muss jeder Frame mehr oder weniger in Echtzeit aufgenommen werden. Es steht ein kleiner Puffer zur Verfügung, um Frames während der Verarbeitung zu speichern, aber wenn Bilder nicht mit der Geschwindigkeit verarbeitet werden, mit der sie aufgenommen wurden, füllt sich dieser Puffer schließlich. Wenn ein Telefon nicht mithalten kann, hat es zwei Möglichkeiten: Entweder ein Bild sofort löschen und zum nächsten springen oder ein Dateiformat verwenden, mit dem es die Bildrate im laufenden Betrieb ändern und bei Problemen weniger Bilder pro Sekunde aufnehmen kann .

Beide Ansätze zerstören oft jede Art von Audiosynchronisierung. Die variable Framerate sollte, wenn sie gut implementiert ist, die Drift etwas mehr begrenzen, da die Frames immer noch mit einer ziemlich konstanten Zeitrate vorrücken sollten, aber sie können verzögert werden und nicht mehr synchron sein. Ausgelassene Frames sind im Allgemeinen viel schlimmer. Da für diesen Frame nichts vorhanden ist, wird einfach der nächste Frame verwendet und im Video geht ein Zeitabschnitt verloren, der nicht in einem separaten Audiostream verloren geht, der den ausgelassenen Frame nicht enthält.

Beide Probleme sind leider hardwareabhängig und es gibt keine Möglichkeit, sie auf der vorhandenen Hardware zu beheben. (Sie könnten versuchen, die Auflösung zu reduzieren, um die Arbeit für den Encoder zu erleichtern, nehme ich an.) Wenn einer dieser Punkte die Ursache des Problems ist, ist die Anschaffung einer anderen Kamera mit einem besseren Encoder die einzige andere Option, die Ihnen wirklich zur Verfügung steht, wenn Sie möchten Behalten Sie die Auflösung bei, die Sie verwenden.

Ein weiteres mögliches Problem, das heutzutage weniger häufig vorkommt, ist, dass die interne Timecode-Uhr einfach schnell oder langsam sein kann. Zum größten Teil stimmt das Frame-Timing mit moderner Technologie überein, aber wenn es ein Problem gibt, können Sie versuchen, am Anfang und am Ende des Videos zu synchronisieren und die Audiogeschwindigkeit entsprechend anzupassen. Überprüfen Sie dabei mehrmals die Mitte, da die meisten modernen Probleme wahrscheinlich nicht so einfach sein werden und die Mitte immer noch nicht synchron ist.

Eine noch bessere Lösung ist die Verwendung einer Kamera, die einen externen Audioeingang akzeptieren kann. Indem Sie das Audio in Echtzeit mit dem Video synchronisieren, während Sie auf demselben Gerät aufnehmen, können Sie sicherstellen, dass der Encoder das richtige Timing beibehält. Es ist wahrscheinlich immer noch eine gute Idee, auch eine externe Aufnahme zu machen, da dies helfen wird, Aufnahmeprobleme zu erkennen, aber die Verwendung eines externen Audioeingangs ist viel einfacher als die nachträgliche Behandlung von Synchronisierungsproblemen.

Vielen Dank! Aber ich benutze mein Smartphone als Audioaufnahmegerät und als Point-and-Shoot, um das Video aufzunehmen.
Ah, ich habe es falsch verstanden, aber die Antwort ist auch für die Point-and-Shoot-Situation relevant. Es macht es wahrscheinlicher, dass der billige Encoder verzögert und den guten Timecode nicht einhält. Die Audioaufnahme ist im Allgemeinen viel einfacher und Telefone haben in der Regel gute Uhren, weil sie eine gute Zeit einhalten müssen, um gut drahtlos zu kommunizieren. Point-and-Shoots hingegen fügen Video normalerweise nachträglich hinzu und können oft marginale Aufgaben beim Halten eines konsistenten Timings erledigen (da es für die meisten Verbrauchersachen nicht benötigt wird).
Interessanter Gedanke. Sie vermuten das Point-and-Shoot als Ursache für das Synchronisierungsproblem. Ich werde das im Hinterkopf behalten und den Test von den anderen Benutzern machen und sehen.

A/V-Synchronisationsprobleme machen sich bei etwa +/- 0,1 Sek. bemerkbar. Die Samplerate-Uhr in Ihrem Telefon und Ihrer Kamera müsste innerhalb von 10 Minuten auf 0,1 Sekunden genau gleich sein oder wie lang Ihre Clips auch sein mögen, damit Sie nur an einem Punkt ausrichten können.

0.1 / (10 * 60) = .0001. Das ist etwa 1 Teil von 10.000. Laut Wikipedia haben Quarzuhren oft eine Stabilität von bis zu 6 Teilen pro Million. Das Zeug, das ich darin überflogen habe, deutet darauf hin, dass es wahrscheinlich ein bisschen mehr kostet, die Taktfrequenz so nahe aus der Fabrik zu bekommen. (und die 6 ppm sind die Art von Langzeitdrift, die Sie um den Startpunkt herum erwarten können, nicht die absolute Genauigkeit einer typischen Ausrüstung.)

Denken Sie daran, die meisten Kameras, insb. diejenigen, die hauptsächlich für die Standbildfotografie entwickelt wurden, benötigen keine Uhr, die so genau ist wie eine Armbanduhr, also haben sie wahrscheinlich keine. Denn das würde extra kosten.

Ich habe genau diese Art von Drift zwischen dem Ton meiner Panasonic Lumix und dem gleichzeitig auf einem Dell-Laptop aufgenommenen Ton gesehen. Siehe Sync separate audio to video+bad-camera-audio, kostenlose NLE-Empfehlungen , wo ich einen langsamen Weg zum manuellen Synchronisieren von Clips beschreibe und nach einem schnelleren automatisierten Weg frage.

Wie auch immer, dieser Mangel an Uhrzeitsynchronisation hat mich überhaupt nicht überrascht. Es hat nichts mit Frame Dropping oder schlechter Ausrüstung zu tun. Es sollte gut funktionieren, anzunehmen, dass beide beteiligten Uhren mit einer konstanten Geschwindigkeit laufen, nur nicht mit der GLEICHEN Geschwindigkeit. So können Sie einen Clip mit einer linearen 2-Parameter-Korrektur korrigieren: Offset + Stretch.

Ich stimme dem Vorschlag von AJ Henderson zu, dass es wahrscheinlich weniger wahrscheinlich ist, dass die Uhr der Kamera richtig ist. Telefone haben GPS-Empfänger für die Zeitmessung und können diese genaue Zeitquelle als Uhr für ihre Audioeingangs-Samplerate verwenden oder nicht. Und wie AJ ​​betont, müssen Sie auch WLAN verwenden, was wahrscheinlich kalibrierte Taktquellen erfordert, es sei denn, sie können sich einfach auf eine empfangene Frequenz einrasten. Ich bin mir nicht sicher, wie wichtig genaue Uhren mit modernen WLAN-Modulationen sind, aber wahrscheinlich eine große Sache.

Ich hätte Probleme bei der Aufnahme auf zwei beliebigen Geräten erwartet, die ihre Sample-Uhr nicht von derselben Zeitquelle ableiten. Bis tragbare GPS-Empfänger verfügbar waren, hatten Filmstudios eine Hauptuhr, die die Zeit an alle A/V-Aufnahmegeräte verteilte, sodass 1 echte Stunde Filmmaterial von einer Kamera genau so viele Bilder wie 1 echte Stunde Filmmaterial von einer anderen Kamera hätte.