ChatPaper.aiChatPaper

Champ: Beheersbare en Consistente Menselijke Beeldanimatie met 3D Parametrische Begeleiding

Champ: Controllable and Consistent Human Image Animation with 3D Parametric Guidance

March 21, 2024
Auteurs: Shenhao Zhu, Junming Leo Chen, Zuozhuo Dai, Yinghui Xu, Xun Cao, Yao Yao, Hao Zhu, Siyu Zhu
cs.AI

Samenvatting

In deze studie introduceren we een methodologie voor het animeren van menselijke beelden door gebruik te maken van een 3D-parametrisch menselijk model binnen een latent diffusiekader om de vormuitlijning en bewegingsbegeleiding in huidige technieken voor het genereren van menselijke beelden te verbeteren. De methodologie maakt gebruik van het SMPL-model (Skinned Multi-Person Linear) als het 3D-parametrische menselijke model om een uniforme representatie van lichaamsvorm en houding te creëren. Dit vergemakkelijkt het nauwkeurig vastleggen van complexe menselijke geometrie en bewegingskenmerken uit bronvideo's. Specifiek integreren we gerenderde diepte-afbeeldingen, normal maps en semantische maps verkregen uit SMPL-sequenties, naast skeletgebaseerde bewegingsbegeleiding, om de voorwaarden voor het latent diffusiemodel te verrijken met uitgebreide 3D-vorm en gedetailleerde houdingskenmerken. Een meerlaagse bewegingsfusiemodule, die zelf-attentiemechanismen integreert, wordt gebruikt om de vorm- en bewegingslatente representaties in het ruimtelijke domein te fuseren. Door het 3D-parametrische menselijke model als bewegingsbegeleiding te representeren, kunnen we een parametrische vormuitlijning van het menselijk lichaam uitvoeren tussen het referentiebeeld en de beweging in de bronvideo. Experimentele evaluaties uitgevoerd op benchmark-datasets tonen de superieure mogelijkheid van de methodologie aan om hoogwaardige menselijke animaties te genereren die zowel houdings- als vormvariaties nauwkeurig vastleggen. Bovendien toont onze aanpak ook superieure generalisatiecapaciteiten op de voorgestelde wild-dataset. Projectpagina: https://fudan-generative-vision.github.io/champ.
English
In this study, we introduce a methodology for human image animation by leveraging a 3D human parametric model within a latent diffusion framework to enhance shape alignment and motion guidance in curernt human generative techniques. The methodology utilizes the SMPL(Skinned Multi-Person Linear) model as the 3D human parametric model to establish a unified representation of body shape and pose. This facilitates the accurate capture of intricate human geometry and motion characteristics from source videos. Specifically, we incorporate rendered depth images, normal maps, and semantic maps obtained from SMPL sequences, alongside skeleton-based motion guidance, to enrich the conditions to the latent diffusion model with comprehensive 3D shape and detailed pose attributes. A multi-layer motion fusion module, integrating self-attention mechanisms, is employed to fuse the shape and motion latent representations in the spatial domain. By representing the 3D human parametric model as the motion guidance, we can perform parametric shape alignment of the human body between the reference image and the source video motion. Experimental evaluations conducted on benchmark datasets demonstrate the methodology's superior ability to generate high-quality human animations that accurately capture both pose and shape variations. Furthermore, our approach also exhibits superior generalization capabilities on the proposed wild dataset. Project page: https://fudan-generative-vision.github.io/champ.
PDF162February 8, 2026