HoloTime: Управление моделями диффузии видео для генерации панорамных 4D-сцен
HoloTime: Taming Video Diffusion Models for Panoramic 4D Scene Generation
April 30, 2025
Авторы: Haiyang Zhou, Wangbo Yu, Jiawen Guan, Xinhua Cheng, Yonghong Tian, Li Yuan
cs.AI
Аннотация
Быстрое развитие диффузионных моделей обещает революционизировать применение технологий виртуальной (VR) и дополненной (AR) реальности, которые обычно требуют сценовых 4D-активов для обеспечения пользовательского опыта. Тем не менее, существующие диффузионные модели в основном сосредоточены на моделировании статических 3D-сцен или динамики на уровне объектов, что ограничивает их способность предоставлять по-настоящему иммерсивные впечатления. Для решения этой проблемы мы предлагаем HoloTime — фреймворк, который интегрирует видео-диффузионные модели для генерации панорамных видео из одного текстового запроса или эталонного изображения, а также метод реконструкции 360-градусных 4D-сцен, который плавно преобразует сгенерированные панорамные видео в 4D-активы, обеспечивая полностью иммерсивный 4D-опыт для пользователей. В частности, для адаптации видео-дифузионных моделей к генерации высококачественных панорамных видео мы представляем 360World — первый всеобъемлющий набор панорамных видео, подходящих для задач реконструкции 4D-сцен. Используя этот тщательно отобранный набор данных, мы предлагаем Panoramic Animator — двухэтапную диффузионную модель "изображение-в-видео", которая может преобразовывать панорамные изображения в высококачественные панорамные видео. Затем мы представляем Panoramic Space-Time Reconstruction, который использует метод оценки глубины в пространстве-времени для преобразования сгенерированных панорамных видео в 4D-облака точек, что позволяет оптимизировать целостное представление 4D Gaussian Splatting для реконструкции пространственно и временно согласованных 4D-сцен. Для проверки эффективности нашего метода мы провели сравнительный анализ с существующими подходами, который показал его превосходство как в генерации панорамных видео, так и в реконструкции 4D-сцен. Это демонстрирует способность нашего метода создавать более увлекательные и реалистичные иммерсивные среды, тем самым улучшая пользовательский опыт в приложениях VR и AR.
English
The rapid advancement of diffusion models holds the promise of
revolutionizing the application of VR and AR technologies, which typically
require scene-level 4D assets for user experience. Nonetheless, existing
diffusion models predominantly concentrate on modeling static 3D scenes or
object-level dynamics, constraining their capacity to provide truly immersive
experiences. To address this issue, we propose HoloTime, a framework that
integrates video diffusion models to generate panoramic videos from a single
prompt or reference image, along with a 360-degree 4D scene reconstruction
method that seamlessly transforms the generated panoramic video into 4D assets,
enabling a fully immersive 4D experience for users. Specifically, to tame video
diffusion models for generating high-fidelity panoramic videos, we introduce
the 360World dataset, the first comprehensive collection of panoramic videos
suitable for downstream 4D scene reconstruction tasks. With this curated
dataset, we propose Panoramic Animator, a two-stage image-to-video diffusion
model that can convert panoramic images into high-quality panoramic videos.
Following this, we present Panoramic Space-Time Reconstruction, which leverages
a space-time depth estimation method to transform the generated panoramic
videos into 4D point clouds, enabling the optimization of a holistic 4D
Gaussian Splatting representation to reconstruct spatially and temporally
consistent 4D scenes. To validate the efficacy of our method, we conducted a
comparative analysis with existing approaches, revealing its superiority in
both panoramic video generation and 4D scene reconstruction. This demonstrates
our method's capability to create more engaging and realistic immersive
environments, thereby enhancing user experiences in VR and AR applications.Summary
AI-Generated Summary