Titel: Steuerbare und konsistente Animation menschlicher Bilder mit 3D parametrischer Führung
Champ: Controllable and Consistent Human Image Animation with 3D Parametric Guidance
March 21, 2024
Autoren: Shenhao Zhu, Junming Leo Chen, Zuozhuo Dai, Yinghui Xu, Xun Cao, Yao Yao, Hao Zhu, Siyu Zhu
cs.AI
Zusammenfassung
In dieser Studie stellen wir eine Methodik zur Animation von menschlichen Bildern vor, die auf einem 3D-Menschparametriksmodell innerhalb eines latenten Diffusionsrahmens basiert, um die Formausrichtung und Bewegungssteuerung in aktuellen generativen Techniken für menschliche Darstellungen zu verbessern. Die Methodik nutzt das SMPL (Skinned Multi-Person Linear) Modell als 3D-Menschparametrikmodell, um eine einheitliche Darstellung von Körperform und Pose herzustellen. Dies erleichtert die präzise Erfassung der komplexen menschlichen Geometrie und Bewegungsmerkmale aus Ausgangsvideos. Speziell integrieren wir gerenderte Tiefenbilder, Normalenvektorkarten und semantische Karten, die aus SMPL-Sequenzen gewonnen wurden, zusammen mit skelettgestützter Bewegungssteuerung, um die Bedingungen des latenten Diffusionsmodells mit umfassenden 3D-Formen und detaillierten Posemerkmalen anzureichern. Ein mehrschichtiges Bewegungsverschmelzungsmodul, das Selbst-Aufmerksamkeitsmechanismen integriert, wird verwendet, um die Form- und Bewegungslatenzrepräsentationen im räumlichen Bereich zu verschmelzen. Durch die Darstellung des 3D-Menschparametrikmodells als Bewegungssteuerung können wir eine parametrische Formausrichtung des menschlichen Körpers zwischen dem Referenzbild und der Bewegung im Ausgangsvideo durchführen. Experimentelle Bewertungen, die an Benchmark-Datensätzen durchgeführt wurden, zeigen die überlegene Fähigkeit der Methodik, hochwertige menschliche Animationen zu generieren, die sowohl Pose- als auch Formvariationen präzise erfassen. Darüber hinaus zeigt unser Ansatz auch überlegene Verallgemeinerungsfähigkeiten auf dem vorgeschlagenen Wild-Datensatz. Projektseite: https://fudan-generative-vision.github.io/champ.
English
In this study, we introduce a methodology for human image animation by
leveraging a 3D human parametric model within a latent diffusion framework to
enhance shape alignment and motion guidance in curernt human generative
techniques. The methodology utilizes the SMPL(Skinned Multi-Person Linear)
model as the 3D human parametric model to establish a unified representation of
body shape and pose. This facilitates the accurate capture of intricate human
geometry and motion characteristics from source videos. Specifically, we
incorporate rendered depth images, normal maps, and semantic maps obtained from
SMPL sequences, alongside skeleton-based motion guidance, to enrich the
conditions to the latent diffusion model with comprehensive 3D shape and
detailed pose attributes. A multi-layer motion fusion module, integrating
self-attention mechanisms, is employed to fuse the shape and motion latent
representations in the spatial domain. By representing the 3D human parametric
model as the motion guidance, we can perform parametric shape alignment of the
human body between the reference image and the source video motion.
Experimental evaluations conducted on benchmark datasets demonstrate the
methodology's superior ability to generate high-quality human animations that
accurately capture both pose and shape variations. Furthermore, our approach
also exhibits superior generalization capabilities on the proposed wild
dataset. Project page: https://fudan-generative-vision.github.io/champ.Summary
AI-Generated Summary