ChatPaper.aiChatPaper

DimensionX: Erstellen beliebiger 3D- und 4D-Szenen aus einem einzelnen Bild mit kontrollierbarer Video-Diffusion

DimensionX: Create Any 3D and 4D Scenes from a Single Image with Controllable Video Diffusion

November 7, 2024
papers.authors: Wenqiang Sun, Shuo Chen, Fangfu Liu, Zilong Chen, Yueqi Duan, Jun Zhang, Yikai Wang
cs.AI

papers.abstract

In diesem Artikel stellen wir DimensionX vor, ein Framework, das darauf ausgelegt ist, fotorealistische 3D- und 4D-Szenen aus nur einem einzigen Bild mithilfe von Video-Diffusion zu generieren. Unser Ansatz beginnt mit der Erkenntnis, dass sowohl die räumliche Struktur einer 3D-Szene als auch die zeitliche Entwicklung einer 4D-Szene effektiv durch Sequenzen von Videobildern dargestellt werden können. Obwohl aktuelle Video-Diffusionsmodelle bemerkenswerte Erfolge bei der Erzeugung lebendiger visueller Inhalte gezeigt haben, stoßen sie an Grenzen, wenn es darum geht, 3D/4D-Szenen direkt zu rekonstruieren, da die räumliche und zeitliche Steuerbarkeit während der Generierung begrenzt ist. Um dies zu überwinden, schlagen wir ST-Director vor, das räumliche und zeitliche Faktoren in der Video-Diffusion entkoppelt, indem es dimensionsbewusste LoRAs aus dimensionsvarianten Daten lernt. Dieser kontrollierbare Video-Diffusionsansatz ermöglicht eine präzise Manipulation der räumlichen Struktur und der zeitlichen Dynamik, wodurch wir sowohl 3D- als auch 4D-Darstellungen aus sequenziellen Bildern durch die Kombination von räumlichen und zeitlichen Dimensionen rekonstruieren können. Zusätzlich führen wir, um die Lücke zwischen generierten Videos und realen Szenen zu schließen, einen trajektorienbewussten Mechanismus für die 3D-Generierung und eine identitätserhaltende Rauschunterdrückungsstrategie für die 4D-Generierung ein. Umfangreiche Experimente mit verschiedenen realen und synthetischen Datensätzen zeigen, dass DimensionX im Vergleich zu früheren Methoden überlegene Ergebnisse in der kontrollierbaren Videogenerierung sowie in der 3D- und 4D-Szenengenerierung erzielt.
English
In this paper, we introduce DimensionX, a framework designed to generate photorealistic 3D and 4D scenes from just a single image with video diffusion. Our approach begins with the insight that both the spatial structure of a 3D scene and the temporal evolution of a 4D scene can be effectively represented through sequences of video frames. While recent video diffusion models have shown remarkable success in producing vivid visuals, they face limitations in directly recovering 3D/4D scenes due to limited spatial and temporal controllability during generation. To overcome this, we propose ST-Director, which decouples spatial and temporal factors in video diffusion by learning dimension-aware LoRAs from dimension-variant data. This controllable video diffusion approach enables precise manipulation of spatial structure and temporal dynamics, allowing us to reconstruct both 3D and 4D representations from sequential frames with the combination of spatial and temporal dimensions. Additionally, to bridge the gap between generated videos and real-world scenes, we introduce a trajectory-aware mechanism for 3D generation and an identity-preserving denoising strategy for 4D generation. Extensive experiments on various real-world and synthetic datasets demonstrate that DimensionX achieves superior results in controllable video generation, as well as in 3D and 4D scene generation, compared with previous methods.
PDF574December 4, 2025