ChatPaper.aiChatPaper

CamCo : Génération vidéo à partir d'images en 3D cohérente et contrôlable par caméra

CamCo: Camera-Controllable 3D-Consistent Image-to-Video Generation

June 4, 2024
Auteurs: Dejia Xu, Weili Nie, Chao Liu, Sifei Liu, Jan Kautz, Zhangyang Wang, Arash Vahdat
cs.AI

Résumé

Récemment, les modèles de diffusion vidéo sont apparus comme des outils génératifs expressifs pour la création de contenus vidéo de haute qualité, facilement accessibles aux utilisateurs grand public. Cependant, ces modèles n'offrent souvent pas un contrôle précis des poses de caméra pour la génération de vidéos, limitant ainsi l'expression du langage cinématographique et le contrôle de l'utilisateur. Pour résoudre ce problème, nous présentons CamCo, qui permet un contrôle granulaire des poses de caméra pour la génération d'images à vidéo. Nous équipons un générateur d'images à vidéo pré-entraîné avec une entrée de pose de caméra paramétrée avec précision en utilisant les coordonnées de Plücker. Pour améliorer la cohérence 3D dans les vidéos produites, nous intégrons un module d'attention épipolaire dans chaque bloc d'attention, qui impose des contraintes épipolaires aux cartes de caractéristiques. De plus, nous affinons CamCo sur des vidéos du monde réel avec des poses de caméra estimées grâce à des algorithmes de structure-from-motion pour mieux synthétiser le mouvement des objets. Nos expériences montrent que CamCo améliore significativement la cohérence 3D et les capacités de contrôle de la caméra par rapport aux modèles précédents, tout en générant efficacement des mouvements d'objets plausibles. Page du projet : https://ir1d.github.io/CamCo/
English
Recently video diffusion models have emerged as expressive generative tools for high-quality video content creation readily available to general users. However, these models often do not offer precise control over camera poses for video generation, limiting the expression of cinematic language and user control. To address this issue, we introduce CamCo, which allows fine-grained Camera pose Control for image-to-video generation. We equip a pre-trained image-to-video generator with accurately parameterized camera pose input using Pl\"ucker coordinates. To enhance 3D consistency in the videos produced, we integrate an epipolar attention module in each attention block that enforces epipolar constraints to the feature maps. Additionally, we fine-tune CamCo on real-world videos with camera poses estimated through structure-from-motion algorithms to better synthesize object motion. Our experiments show that CamCo significantly improves 3D consistency and camera control capabilities compared to previous models while effectively generating plausible object motion. Project page: https://ir1d.github.io/CamCo/

Summary

AI-Generated Summary

PDF104December 12, 2024