ChatPaper.aiChatPaper

DreamScene360: Generación de Escenas 3D sin Restricciones a partir de Texto con Proyección Panorámica de Gaussianos

DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting

April 10, 2024
Autores: Shijie Zhou, Zhiwen Fan, Dejia Xu, Haoran Chang, Pradyumna Chari, Tejas Bharadwaj, Suya You, Zhangyang Wang, Achuta Kadambi
cs.AI

Resumen

La creciente demanda de aplicaciones de realidad virtual ha destacado la importancia de crear activos 3D inmersivos. Presentamos una pipeline de generación de escenas 360° a partir de texto que facilita la creación de escenas 360° completas para entornos naturales en cuestión de minutos. Nuestro enfoque utiliza el poder generativo de un modelo de difusión 2D y el auto-refinamiento de prompts para crear una imagen panorámica de alta calidad y coherente globalmente. Esta imagen actúa como una representación preliminar "plana" (2D) de la escena. Posteriormente, se transforma en Gaussianas 3D, empleando técnicas de splatting para permitir la exploración en tiempo real. Para producir una geometría 3D consistente, nuestra pipeline construye una estructura espacialmente coherente al alinear la profundidad monocular 2D en una nube de puntos optimizada globalmente. Esta nube de puntos sirve como estado inicial para los centroides de las Gaussianas 3D. Con el fin de abordar los problemas de invisibilidad inherentes a las entradas de vista única, imponemos restricciones semánticas y geométricas tanto en las vistas de cámara sintetizadas como en las de entrada como regularizaciones. Estas guían la optimización de las Gaussianas, ayudando en la reconstrucción de regiones no vistas. En resumen, nuestro método ofrece una escena 3D globalmente consistente dentro de una perspectiva 360°, proporcionando una experiencia inmersiva mejorada sobre las técnicas existentes. Sitio web del proyecto: http://dreamscene360.github.io/
English
The increasing demand for virtual reality applications has highlighted the significance of crafting immersive 3D assets. We present a text-to-3D 360^{circ} scene generation pipeline that facilitates the creation of comprehensive 360^{circ} scenes for in-the-wild environments in a matter of minutes. Our approach utilizes the generative power of a 2D diffusion model and prompt self-refinement to create a high-quality and globally coherent panoramic image. This image acts as a preliminary "flat" (2D) scene representation. Subsequently, it is lifted into 3D Gaussians, employing splatting techniques to enable real-time exploration. To produce consistent 3D geometry, our pipeline constructs a spatially coherent structure by aligning the 2D monocular depth into a globally optimized point cloud. This point cloud serves as the initial state for the centroids of 3D Gaussians. In order to address invisible issues inherent in single-view inputs, we impose semantic and geometric constraints on both synthesized and input camera views as regularizations. These guide the optimization of Gaussians, aiding in the reconstruction of unseen regions. In summary, our method offers a globally consistent 3D scene within a 360^{circ} perspective, providing an enhanced immersive experience over existing techniques. Project website at: http://dreamscene360.github.io/

Summary

AI-Generated Summary

PDF193December 15, 2024