ChatPaper.aiChatPaper

DreamScene360 : Génération de scènes 3D non contraintes à partir de texte avec projection panoramique de splats gaussiens

DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting

April 10, 2024
Auteurs: Shijie Zhou, Zhiwen Fan, Dejia Xu, Haoran Chang, Pradyumna Chari, Tejas Bharadwaj, Suya You, Zhangyang Wang, Achuta Kadambi
cs.AI

Résumé

La demande croissante d'applications de réalité virtuelle a mis en lumière l'importance de créer des ressources 3D immersives. Nous présentons un pipeline de génération de scènes 360^{circ} à partir de texte, qui facilite la création de scènes 360^{circ} complètes pour des environnements réels en quelques minutes. Notre approche exploite la puissance générative d'un modèle de diffusion 2D et un raffinement automatique des prompts pour créer une image panoramique de haute qualité et globalement cohérente. Cette image sert de représentation initiale "plate" (2D) de la scène. Elle est ensuite transformée en Gaussiennes 3D, en utilisant des techniques de splatting pour permettre une exploration en temps réel. Pour produire une géométrie 3D cohérente, notre pipeline construit une structure spatialement cohérente en alignant la profondeur monoculaire 2D dans un nuage de points globalement optimisé. Ce nuage de points sert d'état initial pour les centroïdes des Gaussiennes 3D. Afin de résoudre les problèmes d'invisibilité inhérents aux entrées à vue unique, nous imposons des contraintes sémantiques et géométriques sur les vues synthétisées et les vues d'entrée de la caméra comme régularisations. Ces contraintes guident l'optimisation des Gaussiennes, aidant à la reconstruction des régions non visibles. En résumé, notre méthode offre une scène 3D globalement cohérente dans une perspective 360^{circ}, fournissant une expérience immersive améliorée par rapport aux techniques existantes. Site du projet : http://dreamscene360.github.io/
English
The increasing demand for virtual reality applications has highlighted the significance of crafting immersive 3D assets. We present a text-to-3D 360^{circ} scene generation pipeline that facilitates the creation of comprehensive 360^{circ} scenes for in-the-wild environments in a matter of minutes. Our approach utilizes the generative power of a 2D diffusion model and prompt self-refinement to create a high-quality and globally coherent panoramic image. This image acts as a preliminary "flat" (2D) scene representation. Subsequently, it is lifted into 3D Gaussians, employing splatting techniques to enable real-time exploration. To produce consistent 3D geometry, our pipeline constructs a spatially coherent structure by aligning the 2D monocular depth into a globally optimized point cloud. This point cloud serves as the initial state for the centroids of 3D Gaussians. In order to address invisible issues inherent in single-view inputs, we impose semantic and geometric constraints on both synthesized and input camera views as regularizations. These guide the optimization of Gaussians, aiding in the reconstruction of unseen regions. In summary, our method offers a globally consistent 3D scene within a 360^{circ} perspective, providing an enhanced immersive experience over existing techniques. Project website at: http://dreamscene360.github.io/

Summary

AI-Generated Summary

PDF193December 15, 2024