ChatPaper.aiChatPaper

DreamScene360: Unbeschränkte Text-zu-3D-Szenen-Generierung mit panoramischem Gaussian-Splatting

DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting

April 10, 2024
Autoren: Shijie Zhou, Zhiwen Fan, Dejia Xu, Haoran Chang, Pradyumna Chari, Tejas Bharadwaj, Suya You, Zhangyang Wang, Achuta Kadambi
cs.AI

Zusammenfassung

Die steigende Nachfrage nach Virtual-Reality-Anwendungen hat die Bedeutung der Erstellung immersiver 3D-Assets hervorgehoben. Wir präsentieren einen Text-zu-3D-360^{circ}-Szenengenerierungspipeline, die die Erstellung umfassender 360^{circ}-Szenen für natürliche Umgebungen in kürzester Zeit ermöglicht. Unser Ansatz nutzt die generative Kraft eines 2D-Diffusionsmodells und eine prompte Selbstverfeinerung, um ein hochwertiges und global kohärentes Panoramabild zu erstellen. Dieses Bild fungiert als vorläufige "flache" (2D) Szenendarstellung. Anschließend wird es in 3D-Gaußsche Funktionen umgewandelt, wobei Splatting-Techniken verwendet werden, um eine Echtzeit-Erkundung zu ermöglichen. Um konsistente 3D-Geometrie zu erzeugen, konstruiert unsere Pipeline eine räumlich kohärente Struktur, indem sie die 2D monokulare Tiefe in eine global optimierte Punktewolke ausrichtet. Diese Punktewolke dient als Ausgangszustand für die Zentroide der 3D-Gaußschen Funktionen. Um unsichtbare Probleme anzugehen, die in Einzelansicht-Eingaben inhärent sind, legen wir semantische und geometrische Einschränkungen sowohl auf synthetisierte als auch auf Eingabe-Kamerabilder als Regularisierungen fest. Diese helfen bei der Optimierung der Gaußschen Funktionen und unterstützen die Rekonstruktion nicht sichtbarer Regionen. Zusammenfassend bietet unsere Methode eine global konsistente 3D-Szene aus einer 360^{circ}-Perspektive, die ein verbessertes immersives Erlebnis im Vergleich zu bestehenden Techniken bietet. Projektwebsite unter: http://dreamscene360.github.io/
English
The increasing demand for virtual reality applications has highlighted the significance of crafting immersive 3D assets. We present a text-to-3D 360^{circ} scene generation pipeline that facilitates the creation of comprehensive 360^{circ} scenes for in-the-wild environments in a matter of minutes. Our approach utilizes the generative power of a 2D diffusion model and prompt self-refinement to create a high-quality and globally coherent panoramic image. This image acts as a preliminary "flat" (2D) scene representation. Subsequently, it is lifted into 3D Gaussians, employing splatting techniques to enable real-time exploration. To produce consistent 3D geometry, our pipeline constructs a spatially coherent structure by aligning the 2D monocular depth into a globally optimized point cloud. This point cloud serves as the initial state for the centroids of 3D Gaussians. In order to address invisible issues inherent in single-view inputs, we impose semantic and geometric constraints on both synthesized and input camera views as regularizations. These guide the optimization of Gaussians, aiding in the reconstruction of unseen regions. In summary, our method offers a globally consistent 3D scene within a 360^{circ} perspective, providing an enhanced immersive experience over existing techniques. Project website at: http://dreamscene360.github.io/

Summary

AI-Generated Summary

PDF193December 15, 2024