HoloTime: Domare i Modelli di Diffusione Video per la Generazione di Scene Panoramiche 4D
HoloTime: Taming Video Diffusion Models for Panoramic 4D Scene Generation
April 30, 2025
Autori: Haiyang Zhou, Wangbo Yu, Jiawen Guan, Xinhua Cheng, Yonghong Tian, Li Yuan
cs.AI
Abstract
Il rapido progresso dei modelli di diffusione promette di rivoluzionare l'applicazione delle tecnologie VR e AR, che tipicamente richiedono risorse 4D a livello di scena per l'esperienza dell'utente. Tuttavia, i modelli di diffusione esistenti si concentrano principalmente sulla modellazione di scene 3D statiche o dinamiche a livello di oggetto, limitando la loro capacità di offrire esperienze veramente immersive. Per affrontare questo problema, proponiamo HoloTime, un framework che integra modelli di diffusione video per generare video panoramici da un singolo prompt o immagine di riferimento, insieme a un metodo di ricostruzione 4D a 360 gradi che trasforma senza soluzione di continuità il video panoramico generato in risorse 4D, consentendo un'esperienza 4D completamente immersiva per gli utenti. Nello specifico, per addomesticare i modelli di diffusione video per la generazione di video panoramici ad alta fedeltà, introduciamo il dataset 360World, la prima raccolta completa di video panoramici adatta per compiti di ricostruzione 4D di scene. Con questo dataset curato, proponiamo Panoramic Animator, un modello di diffusione immagine-video a due stadi che può convertire immagini panoramiche in video panoramici di alta qualità. Successivamente, presentiamo Panoramic Space-Time Reconstruction, che sfrutta un metodo di stima della profondità spazio-temporale per trasformare i video panoramici generati in nuvole di punti 4D, consentendo l'ottimizzazione di una rappresentazione olistica 4D con Gaussian Splatting per ricostruire scene 4D spazialmente e temporalmente coerenti. Per validare l'efficacia del nostro metodo, abbiamo condotto un'analisi comparativa con approcci esistenti, rivelando la sua superiorità sia nella generazione di video panoramici che nella ricostruzione di scene 4D. Ciò dimostra la capacità del nostro metodo di creare ambienti immersivi più coinvolgenti e realistici, migliorando così le esperienze degli utenti nelle applicazioni VR e AR.
English
The rapid advancement of diffusion models holds the promise of
revolutionizing the application of VR and AR technologies, which typically
require scene-level 4D assets for user experience. Nonetheless, existing
diffusion models predominantly concentrate on modeling static 3D scenes or
object-level dynamics, constraining their capacity to provide truly immersive
experiences. To address this issue, we propose HoloTime, a framework that
integrates video diffusion models to generate panoramic videos from a single
prompt or reference image, along with a 360-degree 4D scene reconstruction
method that seamlessly transforms the generated panoramic video into 4D assets,
enabling a fully immersive 4D experience for users. Specifically, to tame video
diffusion models for generating high-fidelity panoramic videos, we introduce
the 360World dataset, the first comprehensive collection of panoramic videos
suitable for downstream 4D scene reconstruction tasks. With this curated
dataset, we propose Panoramic Animator, a two-stage image-to-video diffusion
model that can convert panoramic images into high-quality panoramic videos.
Following this, we present Panoramic Space-Time Reconstruction, which leverages
a space-time depth estimation method to transform the generated panoramic
videos into 4D point clouds, enabling the optimization of a holistic 4D
Gaussian Splatting representation to reconstruct spatially and temporally
consistent 4D scenes. To validate the efficacy of our method, we conducted a
comparative analysis with existing approaches, revealing its superiority in
both panoramic video generation and 4D scene reconstruction. This demonstrates
our method's capability to create more engaging and realistic immersive
environments, thereby enhancing user experiences in VR and AR applications.