ChatPaper.aiChatPaper

DimensionX: Creare Scene 3D e 4D da una Singola Immagine con Diffusione Video Controllabile

DimensionX: Create Any 3D and 4D Scenes from a Single Image with Controllable Video Diffusion

November 7, 2024
Autori: Wenqiang Sun, Shuo Chen, Fangfu Liu, Zilong Chen, Yueqi Duan, Jun Zhang, Yikai Wang
cs.AI

Abstract

In questo articolo presentiamo DimensionX, un framework progettato per generare scene 3D e 4D fotorealistiche a partire da una singola immagine mediante video diffusion. Il nostro approccio parte dall'intuizione che sia la struttura spaziale di una scena 3D che l'evoluzione temporale di una scena 4D possano essere efficacemente rappresentate attraverso sequenze di fotogrammi video. Sebbene i recenti modelli di video diffusion abbiano dimostrato notevoli successi nella produzione di visualizzazioni vivide, presentano limitazioni nel recupero diretto di scene 3D/4D a causa di una controllabilità spaziale e temporale limitata durante la generazione. Per superare questo problema, proponiamo ST-Director, che disaccoppia i fattori spaziali e temporali nel video diffusion apprendendo LoRA (Low-Rank Adaptation) consapevoli della dimensionalità da dati dimensionalmente varianti. Questo approccio controllabile di video diffusion consente una manipolazione precisa della struttura spaziale e della dinamica temporale, permettendoci di ricostruire sia rappresentazioni 3D che 4D a partire da fotogrammi sequenziali con la combinazione di dimensioni spaziali e temporali. Inoltre, per colmare il divario tra video generati e scene del mondo reale, introduciamo un meccanismo trajectory-aware per la generazione 3D e una strategia di denoising identity-preserving per la generazione 4D. Esperimenti estesi su vari dataset reali e sintetici dimostrano che DimensionX raggiunge risultati superiori nella generazione controllabile di video, nonché nella generazione di scene 3D e 4D, rispetto ai metodi precedenti.
English
In this paper, we introduce DimensionX, a framework designed to generate photorealistic 3D and 4D scenes from just a single image with video diffusion. Our approach begins with the insight that both the spatial structure of a 3D scene and the temporal evolution of a 4D scene can be effectively represented through sequences of video frames. While recent video diffusion models have shown remarkable success in producing vivid visuals, they face limitations in directly recovering 3D/4D scenes due to limited spatial and temporal controllability during generation. To overcome this, we propose ST-Director, which decouples spatial and temporal factors in video diffusion by learning dimension-aware LoRAs from dimension-variant data. This controllable video diffusion approach enables precise manipulation of spatial structure and temporal dynamics, allowing us to reconstruct both 3D and 4D representations from sequential frames with the combination of spatial and temporal dimensions. Additionally, to bridge the gap between generated videos and real-world scenes, we introduce a trajectory-aware mechanism for 3D generation and an identity-preserving denoising strategy for 4D generation. Extensive experiments on various real-world and synthetic datasets demonstrate that DimensionX achieves superior results in controllable video generation, as well as in 3D and 4D scene generation, compared with previous methods.
PDF574December 4, 2025