ChatPaper.aiChatPaper

CamCo: Camera-bestuurbare 3D-consistente beeld-naar-video generatie

CamCo: Camera-Controllable 3D-Consistent Image-to-Video Generation

June 4, 2024
Auteurs: Dejia Xu, Weili Nie, Chao Liu, Sifei Liu, Jan Kautz, Zhangyang Wang, Arash Vahdat
cs.AI

Samenvatting

Onlangs zijn videodiffusiemodellen naar voren gekomen als expressieve generatieve tools voor het maken van hoogwaardige videocontent die gemakkelijk toegankelijk is voor algemene gebruikers. Deze modellen bieden echter vaak geen nauwkeurige controle over cameraposities voor videogeneratie, wat de expressie van cinematische taal en gebruikerscontrole beperkt. Om dit probleem aan te pakken, introduceren we CamCo, dat fijnmazige controle over cameraposities mogelijk maakt voor beeld-naar-videogeneratie. We voorzien een vooraf getrainde beeld-naar-videogenerator van nauwkeurig geparametriseerde camerapositie-invoer met behulp van Plücker-coördinaten. Om de 3D-consistentie in de geproduceerde video's te verbeteren, integreren we een epipolaire aandachtmodule in elk aandachtblok die epipolaire beperkingen oplegt aan de kenmerkkaarten. Daarnaast fine-tunen we CamCo op real-world video's met cameraposities geschat via structure-from-motion-algoritmen om de beweging van objecten beter te synthetiseren. Onze experimenten tonen aan dat CamCo de 3D-consistentie en cameracontrolecapaciteiten aanzienlijk verbetert in vergelijking met eerdere modellen, terwijl het tegelijkertijd plausibele objectbeweging effectief genereert. Projectpagina: https://ir1d.github.io/CamCo/
English
Recently video diffusion models have emerged as expressive generative tools for high-quality video content creation readily available to general users. However, these models often do not offer precise control over camera poses for video generation, limiting the expression of cinematic language and user control. To address this issue, we introduce CamCo, which allows fine-grained Camera pose Control for image-to-video generation. We equip a pre-trained image-to-video generator with accurately parameterized camera pose input using Pl\"ucker coordinates. To enhance 3D consistency in the videos produced, we integrate an epipolar attention module in each attention block that enforces epipolar constraints to the feature maps. Additionally, we fine-tune CamCo on real-world videos with camera poses estimated through structure-from-motion algorithms to better synthesize object motion. Our experiments show that CamCo significantly improves 3D consistency and camera control capabilities compared to previous models while effectively generating plausible object motion. Project page: https://ir1d.github.io/CamCo/
PDF104February 8, 2026