ChatPaper.aiChatPaper

HoloTime: Domando Modelos de Difusão de Vídeo para Geração de Cenas Panorâmicas 4D

HoloTime: Taming Video Diffusion Models for Panoramic 4D Scene Generation

April 30, 2025
Autores: Haiyang Zhou, Wangbo Yu, Jiawen Guan, Xinhua Cheng, Yonghong Tian, Li Yuan
cs.AI

Resumo

O rápido avanço dos modelos de difusão promete revolucionar a aplicação das tecnologias de VR e AR, que normalmente exigem ativos 4D em nível de cena para a experiência do usuário. No entanto, os modelos de difusão existentes concentram-se predominantemente na modelagem de cenas 3D estáticas ou na dinâmica em nível de objeto, limitando sua capacidade de fornecer experiências verdadeiramente imersivas. Para resolver esse problema, propomos o HoloTime, um framework que integra modelos de difusão de vídeo para gerar vídeos panorâmicos a partir de um único prompt ou imagem de referência, juntamente com um método de reconstrução de cena 4D em 360 graus que transforma de forma contínua o vídeo panorâmico gerado em ativos 4D, permitindo uma experiência 4D totalmente imersiva para os usuários. Especificamente, para adaptar os modelos de difusão de vídeo à geração de vídeos panorâmicos de alta fidelidade, introduzimos o conjunto de dados 360World, a primeira coleção abrangente de vídeos panorâmicos adequados para tarefas de reconstrução de cenas 4D. Com esse conjunto de dados curado, propomos o Panoramic Animator, um modelo de difusão de imagem para vídeo em dois estágios que pode converter imagens panorâmicas em vídeos panorâmicos de alta qualidade. Em seguida, apresentamos a Reconstrução Espaço-Temporal Panorâmica, que utiliza um método de estimativa de profundidade espaço-temporal para transformar os vídeos panorâmicos gerados em nuvens de pontos 4D, permitindo a otimização de uma representação holística de 4D Gaussian Splatting para reconstruir cenas 4D espacial e temporalmente consistentes. Para validar a eficácia do nosso método, realizamos uma análise comparativa com abordagens existentes, revelando sua superioridade tanto na geração de vídeos panorâmicos quanto na reconstrução de cenas 4D. Isso demonstra a capacidade do nosso método de criar ambientes imersivos mais envolventes e realistas, aprimorando assim as experiências dos usuários em aplicações de VR e AR.
English
The rapid advancement of diffusion models holds the promise of revolutionizing the application of VR and AR technologies, which typically require scene-level 4D assets for user experience. Nonetheless, existing diffusion models predominantly concentrate on modeling static 3D scenes or object-level dynamics, constraining their capacity to provide truly immersive experiences. To address this issue, we propose HoloTime, a framework that integrates video diffusion models to generate panoramic videos from a single prompt or reference image, along with a 360-degree 4D scene reconstruction method that seamlessly transforms the generated panoramic video into 4D assets, enabling a fully immersive 4D experience for users. Specifically, to tame video diffusion models for generating high-fidelity panoramic videos, we introduce the 360World dataset, the first comprehensive collection of panoramic videos suitable for downstream 4D scene reconstruction tasks. With this curated dataset, we propose Panoramic Animator, a two-stage image-to-video diffusion model that can convert panoramic images into high-quality panoramic videos. Following this, we present Panoramic Space-Time Reconstruction, which leverages a space-time depth estimation method to transform the generated panoramic videos into 4D point clouds, enabling the optimization of a holistic 4D Gaussian Splatting representation to reconstruct spatially and temporally consistent 4D scenes. To validate the efficacy of our method, we conducted a comparative analysis with existing approaches, revealing its superiority in both panoramic video generation and 4D scene reconstruction. This demonstrates our method's capability to create more engaging and realistic immersive environments, thereby enhancing user experiences in VR and AR applications.
PDF161February 7, 2026