Eine Person verfolgen

Welches Programm macht diese Art von Tracking und wie schwer ist es, gute Ergebnisse zu erzielen? Ich habe dies in vielen VFX-Pannen gesehen.

Geben Sie hier die Bildbeschreibung ein

Grundsätzlich ist es ohne Mocap-Studio (oder zumindest Mocap-Hardware) harte Arbeit (oder unmöglich), die genaue Bewegung zu rekonstruieren. Um die Kopfgeometrie zu verformen (anzupassen), sind einige Rigging-Fähigkeiten und zusätzliche Markierungen am Körper erforderlich, um die Knochen an den Markierungen vorbeizutreiben. Könnte interessant sein: fxguide.com/featured/… . Einfacher Gesichtsfeformationstest über Blenders Object Tracker: youtube.com/watch?v=C_oNv0uLxMA

Antworten (1)

Ich komme aus einem Hollywood-Hintergrund für visuelle Effekte und war für ein paar Shows ein Matchmove-Lead. Für den oben erwähnten Prozess tun dies Vfx-Einrichtungen die ganze Zeit.

Wie Poor bereits erwähnt hat, ist es sehr arbeits-, fach- und zeitintensiv. Leider müssen wir in fast allen Fällen, wenn Sie den Schauspieler in der Einstellung ohne einen Tracking-Anzug sehen, und wenn wir ihn nachverfolgen/abgleichen und animieren müssen, IMMER seine Bewegungen von Hand (und mit dem Auge) manuell abgleichen und animieren.

Wenn wir an passende Charakterbewegungen denken, assoziieren wir diesen Prozess sofort mit den Bildern von Werbeaufnahmen hinter den Kulissen für Ironman, Fluch der Karibik, den Golem in Herr der Ringe, The Avengers, Avatar usw. In diesen Hinter den Szenenaufnahmen sehen wir Männer in Motion-Capture-Anzügen und Gesichtskameras.

Sie müssen wissen, dass in diesen Fällen diese Männer in Anzügen in der letzten Einstellung vollständig durch computergenerierte Charaktere ersetzt werden sollen. Golem, Ironman, The Hulk in Avengers, blaue Aliens in Avatar wurden alle durch CGI ersetzt.

Die vollständig ersetzten CG-Charaktere stehen immer im Rampenlicht. Für das Tracking-Team muss auch ein enormer Aufwand betrieben werden, um Live-Schauspieler manuell zu verfolgen und zuzuordnen, die am Ende des Tages nicht durch CG ersetzt werden.

Warum müssen wir Live-Schauspieler mit einem schmerzhaft und genau angepassten Modell in 3D verfolgen? Es ist für Interaktionen mit dem CGI-Charakter gedacht, der am Set nie existierte, als das Filmmaterial gedreht wurde. Als zum Beispiel Frodo Baggins einen Dolch hielt, der mit dem Golem kämpfte, spiegelte sich der Golem zum Zeitpunkt der Dreharbeiten im Dolch (und allen metallischen Teilen seines Kostüms) niemals wider. Ebenso gab es keinen Golem, der auch in den Bereichen, in denen sie Kontakt hatten, einen genauen Schatten auf Frodo warf.

Daher müssen wir in allen Fällen, in denen Sie sehen, dass eine CGI-Figur mit Live-Footage-Elementen interagiert (physischer Ort, physische Requisiten und physische Schauspieler), ein digitales Gegenstück in 3D erstellen und sie genau abgleichen und richtig in Beziehung setzen die anderen Objekte in unserem 3D-Arbeitsbereich, um Schatten, Reflexionen, Farbdiffusion des digitalen Charakters zu erfassen.

Abgesehen davon, dass wir digitale Gegenstücke von Live-Schauspielern zum Reflektieren und Schattenfangen abgleichen und verfolgen müssen, müssen wir sie auch für Dynamiksimulationszwecke passend animieren.

Bei John Carter war ich in der Abteilung für digitale Kostüme, wir haben Menschen, die mit außerirdischen Charakteren interagieren, die vollständig CGI sind. Die Charaktere haben alle fließende, drapierte Kostüme und Accessoires. Wir mussten Aufnahmen animieren, damit CG-Kleidungsstücke, Haare und Fell kollidieren, hinübergleiten und richtig auf lebenden menschlichen Schauspielern aufliegen können. Wenn wir kein digitales Gegenstück zu diesen Schauspielern erstellen und sie abgleichen, werden diese Kostüme, Haare und Felle direkt durch die Live-Schauspieler im Filmmaterial gehen, weil diese Dinge nie im selben 3D-Raum existierten, in dem die Simulation stattfand, für sie mit ... interagieren. Um Ihre Frage abschließend zu beantworten, müssen Sie sich viel Mühe geben, um einen Charakter zu verfolgen. Am Anfang haben wir die Modellierungsphase, in der wir ein menschliches Modell erstellen, das die gleichen Kopf-, Körper- und Gliedmaßenproportionen wie der Schauspieler haben muss. Wenn diese falsch sind, Sie werden nicht zusammenpassen, weil die Arme zu kurz sind, der Kopf zu groß ist und so weiter. Sexy Industriemethoden wie das Scannen der tatsächlichen Schauspieler sind nur Filmen mit sehr hohem Budget vorbehalten, bei denen der Aufwand und die Stunden, die investiert werden, gerechtfertigt sind. Meistens modellieren 3D-Künstler sie nach Augenmaß und nehmen viele Referenzen aus dem Internet für Proportionen und dergleichen. Nimmt so oder so viel Arbeit und Zeit in Anspruch.

Dann kommt die Rigging-Phase, in der das ansonsten starre Modell den technisch aufwendigen Prozess des Hinzufügens komplizierter Steuerungen durchläuft, die es später Match-Move-Animatoren ermöglichen, das digitale Modell so zu artikulieren, dass es mit dem Live-Schauspieler übereinstimmt.

Schließlich muss der Match-Animations- oder Body-Tracking-Künstler sein menschliches Verständnis der Perspektive und der Bewegung menschlicher Schauspieler nutzen, um die genaue Bewegung des Schauspielers in der Aufnahme nachzubilden, von einem 2D-Bild bis zu einer genauen Darstellung der Bewegung in 3D Umgebung. Vertrauen Sie mir, das ist keine leichte Aufgabe und erfordert jahrelange Erfahrung, bevor ein Künstler gut darin werden kann.

Die Körperverfolgung ist um einige Größenordnungen schwieriger als die Verfolgung lebloser, sich nicht verformender Objekte wie eines sich bewegenden Messers oder einer Stange, die zu einem Lichtschwert werden sollte. Das Abgleichen dieser starren Objekte erfordert nur einen Animator, der einen Translationssatz (in X-, Y-, Z-Position) und einen Rotationssatz (in X-, Y-, Z-Achse) handhabt.

Bei der Körperverfolgung hat jedes einzelne Gelenk des menschlichen Körpers viele verschiedene mögliche Positionen, viele mögliche Rotationsgrade. Ein digitales Zeichen zu steuern und zu manipulieren ist schwieriger als mehrere nicht verformbare Objekte zu verfolgen.

Daher ist bei einem kleineren Budget oder einer Indie-Produktion eine solche Genauigkeit normalerweise nicht erforderlich und angesichts der erforderlichen Zeit und Ressourcen nicht realisierbar. Wir würden normalerweise Cheats, Hacks und Abkürzungen verwenden, um zurechtzukommen.

Hier ist schließlich der Unterschied zwischen dem Motion-Capture-Prozess, der hinter den Kulissen gezeigt wird, und dem Matchmoving eines Charakters (der nirgendwo gezeigt wird).

Der Zweck der Erfassung der Bewegung für Charaktere besteht darin, dass sie letztendlich vollständig durch vollständige CG-Charaktere ersetzt werden. Der Grund für die Erfassung der Bewegung von Personen in Mocap-Anzügen besteht darin, dass Animatoren die Leistung der Mocap-Akteure erfassen können. Danach wird die Leistung des Mocap-Schauspielers immer modifiziert. Aufgrund von Jitter und Ungenauigkeit in den erfassten Daten müssen Mocap-Daten fast immer von Künstlern bereinigt werden. In den meisten Fällen wird die eingefangene Bewegung modifiziert, mehr übertrieben, Schauspiel und Posen werden auf größere Wirkung gedrängt. Einige Posen werden geändert, weil sie nicht funktionieren, wenn sie in der Einstellung durch die Kamera betrachtet werden oder wenn sie mit dem Handeln echter Schauspieler kombiniert werden, Timing und Reaktionen nicht sehr gut übereinstimmen oder nicht sehr gut ablaufen. Manchmal werden Mocap-Daten nur für zeitliche Referenzen zu den handelnden Charakteren verwendet, als Richtlinie für den Animator, um mit der manuellen Animation der digitalen Figur von Grund auf neu zu beginnen. All diese Dinge werden getan, damit wir eine fesselndere Aufnahme haben. Daher hat die Bewegungserfassung nicht die Absicht, der Aktion eines Schauspielers in der Aufnahme zu entsprechen. Es dient eher einem künstlerischen Zweck – der Schauspielerei.

Der Zweck der Matchmove-Verfolgung eines Schauspielers dient einem eher technischen Zweck, CG-Elemente dazu zu bringen, mit den Live-Elementen in der Einstellung zu „gelieren“, sie fest zu erden, sie dazu zu bringen, miteinander zu interagieren und zu reagieren, daher müssen sie übereinstimmen die Live-Action so nah wie möglich, wenn nicht sogar genau.

Ich hoffe, diese Erklärung ist klar genug und verwirrt Sie am Ende nicht weiter.

Vielen Dank für diese großartige Erklärung. Ich habe einige Zeit nach einer guten Hintergrunderklärung zum menschlichen CG-Tracking gesucht. Also am Ende läuft alles auf manuelles Abgleichen hinaus, soweit ich weiß sogar die Stofffalten.
Tatsächlich deuten viele Dinge, die uns in Hollywood-Featurettes und hinter den Kulissen präsentiert wurden, darauf hin, dass die Dinge einfach waren und mit Software/technologischer Überlegenheit auf Knopfdruck erreicht werden können. Green Screen ist ein weiterer Prozess, bei dem der ungeschulte Betrachter mit automatischen Farbschlüsselprozessen zu zugehörigen grünen Hintergründen geführt wird, bei denen der Künstler nur auf eine Farbe klicken muss (wie in Photoshop), wo der Hintergrund sauber und magisch entfernt wird. Das ist nicht wahr! Sehen Sie sich Rotoscoping an: goo.gl/yW2JgS .
Ja, ich bin mit dem Rotoscoping-Prozess vertraut, wahrscheinlich einer der mühsamsten Filmbearbeitungsprozesse (natürlich nicht im Vergleich zum manuellen 3D-Tracking).