Чемп: Управляемая и последовательная анимация изображений человека с помощью трехмерного параметрического руководства
Champ: Controllable and Consistent Human Image Animation with 3D Parametric Guidance
March 21, 2024
Авторы: Shenhao Zhu, Junming Leo Chen, Zuozhuo Dai, Yinghui Xu, Xun Cao, Yao Yao, Hao Zhu, Siyu Zhu
cs.AI
Аннотация
В данном исследовании мы представляем методологию анимации человеческого изображения, используя 3D параметрическую модель человека в рамках латентной диффузионной структуры для улучшения выравнивания формы и управления движением в текущих генеративных техниках человека. Методология использует модель SMPL (Skinned Multi-Person Linear) в качестве 3D параметрической модели человека для установления унифицированного представления формы тела и позы. Это облегчает точный захват сложной геометрии человека и характеристик движения из исходных видео. Конкретно, мы интегрируем отрендеренные изображения глубины, нормальные карты и семантические карты, полученные из последовательностей SMPL, вместе с управлением движением на основе скелета, чтобы обогатить условия модели латентной диффузии всесторонними 3D формой и детальными атрибутами позы. Модуль многослойного слияния движения, интегрирующий механизмы самовнимания, используется для слияния формы и латентных представлений движения в пространственной области. Представляя 3D параметрическую модель человека в качестве управления движением, мы можем выполнять параметрическое выравнивание формы тела человека между исходным видео и видео-референсом. Экспериментальные оценки, проведенные на эталонных наборах данных, демонстрируют превосходную способность методологии генерировать высококачественные анимации человека, точно захватывающие как вариации позы, так и формы. Более того, наш подход также обладает превосходными возможностями обобщения на предложенном диком наборе данных. Страница проекта: https://fudan-generative-vision.github.io/champ.
English
In this study, we introduce a methodology for human image animation by
leveraging a 3D human parametric model within a latent diffusion framework to
enhance shape alignment and motion guidance in curernt human generative
techniques. The methodology utilizes the SMPL(Skinned Multi-Person Linear)
model as the 3D human parametric model to establish a unified representation of
body shape and pose. This facilitates the accurate capture of intricate human
geometry and motion characteristics from source videos. Specifically, we
incorporate rendered depth images, normal maps, and semantic maps obtained from
SMPL sequences, alongside skeleton-based motion guidance, to enrich the
conditions to the latent diffusion model with comprehensive 3D shape and
detailed pose attributes. A multi-layer motion fusion module, integrating
self-attention mechanisms, is employed to fuse the shape and motion latent
representations in the spatial domain. By representing the 3D human parametric
model as the motion guidance, we can perform parametric shape alignment of the
human body between the reference image and the source video motion.
Experimental evaluations conducted on benchmark datasets demonstrate the
methodology's superior ability to generate high-quality human animations that
accurately capture both pose and shape variations. Furthermore, our approach
also exhibits superior generalization capabilities on the proposed wild
dataset. Project page: https://fudan-generative-vision.github.io/champ.Summary
AI-Generated Summary