Uni3C: Унификация точного 3D-улучшенного управления камерой и движениями человека для генерации видео
Uni3C: Unifying Precisely 3D-Enhanced Camera and Human Motion Controls for Video Generation
April 21, 2025
Авторы: Chenjie Cao, Jingkai Zhou, Shikai Li, Jingyun Liang, Chaohui Yu, Fan Wang, Xiangyang Xue, Yanwei Fu
cs.AI
Аннотация
Управление движением камеры и человека широко изучалось для генерации видео, однако существующие подходы обычно рассматривают их отдельно, сталкиваясь с ограниченным объемом данных с высококачественными аннотациями для обоих аспектов. Чтобы преодолеть это, мы представляем Uni3C — унифицированную 3D-улучшенную структуру для точного управления как движением камеры, так и человека в генерации видео. Uni3C включает два ключевых вклада. Во-первых, мы предлагаем модуль управления plug-and-play, обученный с замороженной базовой моделью генерации видео, PCDController, который использует непроецируемые облака точек из монохромной глубины для достижения точного управления камерой. Благодаря использованию сильных 3D-приоритетов облаков точек и мощных возможностей базовых моделей видео, PCDController демонстрирует впечатляющую обобщаемость, хорошо работая независимо от того, заморожена ли базовая модель или дообучена. Эта гибкость позволяет обучать различные модули Uni3C в специфических областях, таких как управление камерой или движением человека, снижая зависимость от совместно аннотированных данных. Во-вторых, мы предлагаем совместно выровненное 3D-руководство для фазы вывода, которое бесшовно интегрирует как сценовые облака точек, так и персонажей SMPL-X, чтобы унифицировать управляющие сигналы для камеры и движения человека соответственно. Многочисленные эксперименты подтверждают, что PCDController обладает высокой устойчивостью в управлении движением камеры для дообученных базовых моделей генерации видео. Uni3C значительно превосходит конкурентов как в управляемости камеры, так и в качестве движения человека. Кроме того, мы собираем специализированные наборы для валидации, включающие сложные движения камеры и действия человека, чтобы подтвердить эффективность нашего метода.
English
Camera and human motion controls have been extensively studied for video
generation, but existing approaches typically address them separately,
suffering from limited data with high-quality annotations for both aspects. To
overcome this, we present Uni3C, a unified 3D-enhanced framework for precise
control of both camera and human motion in video generation. Uni3C includes two
key contributions. First, we propose a plug-and-play control module trained
with a frozen video generative backbone, PCDController, which utilizes
unprojected point clouds from monocular depth to achieve accurate camera
control. By leveraging the strong 3D priors of point clouds and the powerful
capacities of video foundational models, PCDController shows impressive
generalization, performing well regardless of whether the inference backbone is
frozen or fine-tuned. This flexibility enables different modules of Uni3C to be
trained in specific domains, i.e., either camera control or human motion
control, reducing the dependency on jointly annotated data. Second, we propose
a jointly aligned 3D world guidance for the inference phase that seamlessly
integrates both scenic point clouds and SMPL-X characters to unify the control
signals for camera and human motion, respectively. Extensive experiments
confirm that PCDController enjoys strong robustness in driving camera motion
for fine-tuned backbones of video generation. Uni3C substantially outperforms
competitors in both camera controllability and human motion quality.
Additionally, we collect tailored validation sets featuring challenging camera
movements and human actions to validate the effectiveness of our method.Summary
AI-Generated Summary