Ich nehme Filmmaterial mit OBS auf und mache Voice-Overs, die in Audacity aufgenommen wurden. Ich verarbeite das Audio in Audacity und synchronisiere dann das Audio mit dem Video. Seit ich jedoch so angefangen habe, synchronisieren sich Audio und Video nicht mehr.
Es beginnt gut mit einem bestimmten Synchronisationspunkt (Countdown von 3 und dann mache ich so etwas wie Klicken auf etwas), aber während das Video fortschreitet, beginnt das Video hinter dem Audio zurückzubleiben. Gegen Ende eines 20-minütigen Videos beträgt der Unterschied fast 3 Sekunden.
Jemand hat die Framerate angesprochen. Das Filmmaterial hat 30 FPS und Lightworks listet das Audio mit 24 FPS auf. Das Mikrofon ist ebenfalls auf 44100 Hz eingestellt, falls das hilft.
Stellen Sie sicher, dass die Abtastraten in beiden Systemen gleich sind. Ich weiß nicht, was OBS ist, aber wenn ich Final Cut für die Videobearbeitung verwenden würde, würde ich mein Projekt auf 48 kHz einstellen und sicherstellen, dass alle externen Aufnahmen ebenfalls 48 kHz haben. Selbst bei denselben Abtastraten driftet das Audio über Zeiträume von mehr als ein paar Minuten. Synchronisieren Sie es entweder manuell in Blöcken oder verwenden Sie etwas wie Pluralize, um dies für Sie zu erledigen. (Oder haben Sie eine feste Sample-Clock zwischen all Ihren Geräten, wenn Sie aufnehmen - wahrscheinlich nicht möglich)
Interessant, dass LW es als „24 fps“ anzeigt, da Audio technisch gesehen keine Bildrate hat, was ein Videokonzept ist.
Stellen Sie, wie @tomh vorschlägt, sicher, dass die Abtastraten für das Projekt 48 KB betragen und dass Sie eine 48-KB-WAV-Datei aus Audacity exportieren.
Wenn das nicht heilt, können Sie Audacity verwenden, um das Audio um einen bestimmten Prozentsatz vorzudehnen. Finden Sie Synchronisationspunkte am Anfang und am Ende des Stücks (so lange Sie können) und berechnen Sie dann die Differenz als Verhältnis. Wenden Sie mit 'Effect..Change Tempo' die Umkehrung dieses Verhältnisses an. Es ist möglich, dass diese Nummer für alles gilt, was Sie tun, also schreiben Sie sie auf ... (-:
ffmpeg -vf setpts=...
In der Frage Separates Audio mit Video synchronisieren + schlechtes Kamera-Audio, kostenlose NLE-Empfehlungen habe ich ausführlich beschrieben, wie ich die A / V-Synchronisierung für Audio, das separat vom Video aufgenommen wurde, mit Audacity und ffmpeg manuell durchgeführt habe.
44,1kHz vs 48kHz hat nichts mit der Drift zu tun. Das Problem ist, dass die Uhr der Kamera nicht genau so schnell ist wie die Uhr des Laptops. Obwohl beide denken, dass sie 1 Sekunde pro Sekunde aufzeichnen, driften sie relativ zueinander. Sie müssen das Video oder Audio alle 20 Minuten um 3 Sekunden dehnen, nicht nur neu abtasten.
Die anderen Antworten decken beide den Idealfall ziemlich gut ab, aber es gibt einen anderen weniger idealen Fall. Abhängig von Ihrem Videotyp ist es möglich, dass Sie entweder eine schlechte Taktsynchronisierung oder ausgelassene Frames haben. Eine schlechte Uhrensynchronisation wird hoffentlich durch die von Jim Mack erwähnte Dehnungsmethode korrigiert, aber wenn die Uhr unregelmäßig ist (heutzutage ziemlich unwahrscheinlich), dann könnten Sie ohne großen manuellen Aufwand etwas ziemlich Unverwertbares haben.
Das häufigere Problem, das zu sehen ist, sind ausgelassene Frames. Für den Fall, dass entweder die Kamera oder im Fall von irgendetwas auf Band die Übertragung verzögert wird, können Einzelbilder aus dem Video entfernt werden. Im Fall von ausgelassenen Frames kann der Ton abdriften, wenn die fehlenden Videoinformationen übersprungen werden. In diesen Fällen müssen Sie versuchen, herauszufinden, wo sich die ausgelassenen Frames befinden, und Audio von diesen Stellen auslassen, um mit dem Video konsistent zu bleiben. Auch dies ist ein ziemlich mühsamer und manueller Prozess, daher hoffe ich, dass eine der anderen Antworten hilft, bevor Sie in einem dieser nicht idealen Szenarien stecken bleiben.
achtfach
Tomh