ChatPaper.aiChatPaper

BlockFusion: Uitbreidbare 3D-scènegeneratie met latente tri-plane-extrapolatie

BlockFusion: Expandable 3D Scene Generation using Latent Tri-plane Extrapolation

January 30, 2024
Auteurs: Zhennan Wu, Yang Li, Han Yan, Taizhang Shang, Weixuan Sun, Senbo Wang, Ruikai Cui, Weizhe Liu, Hiroyuki Sato, Hongdong Li, Pan Ji
cs.AI

Samenvatting

We presenteren BlockFusion, een op diffusie gebaseerd model dat 3D-scènes genereert als eenheidblokken en naadloos nieuwe blokken integreert om de scène uit te breiden. BlockFusion wordt getraind met datasets van 3D-blokken die willekeurig worden uitgesneden uit complete 3D-scènemeshs. Door per-blokfitting worden alle trainingsblokken omgezet in hybride neurale velden: met een tri-plane die de geometrische kenmerken bevat, gevolgd door een Multi-layer Perceptron (MLP) voor het decoderen van de signed distance-waarden. Een variational auto-encoder wordt gebruikt om de tri-planes te comprimeren in de latente tri-plane-ruimte, waarop het denoiseringsdiffusieproces wordt uitgevoerd. Diffusie toegepast op de latente representaties maakt hoogwaardige en diverse 3D-scènegeneratie mogelijk. Om een scène tijdens de generatie uit te breiden, hoeft men alleen maar lege blokken toe te voegen die overlappen met de huidige scène en bestaande latente tri-planes te extrapoleren om nieuwe blokken te vullen. De extrapolatie wordt gedaan door het generatieproces te conditioneren met de kenmerksamples van de overlappende tri-planes tijdens de denoiseringsiteraties. Latente tri-plane-extrapolatie produceert semantisch en geometrisch betekenisvolle overgangen die harmonieus samensmelten met de bestaande scène. Een 2D-layoutconditioneringsmechanisme wordt gebruikt om de plaatsing en rangschikking van scène-elementen te controleren. Experimentele resultaten geven aan dat BlockFusion in staat is om diverse, geometrisch consistente en onbegrensde grote 3D-scènes te genereren met ongekend hoogwaardige vormen in zowel binnen- als buitenscenario's.
English
We present BlockFusion, a diffusion-based model that generates 3D scenes as unit blocks and seamlessly incorporates new blocks to extend the scene. BlockFusion is trained using datasets of 3D blocks that are randomly cropped from complete 3D scene meshes. Through per-block fitting, all training blocks are converted into the hybrid neural fields: with a tri-plane containing the geometry features, followed by a Multi-layer Perceptron (MLP) for decoding the signed distance values. A variational auto-encoder is employed to compress the tri-planes into the latent tri-plane space, on which the denoising diffusion process is performed. Diffusion applied to the latent representations allows for high-quality and diverse 3D scene generation. To expand a scene during generation, one needs only to append empty blocks to overlap with the current scene and extrapolate existing latent tri-planes to populate new blocks. The extrapolation is done by conditioning the generation process with the feature samples from the overlapping tri-planes during the denoising iterations. Latent tri-plane extrapolation produces semantically and geometrically meaningful transitions that harmoniously blend with the existing scene. A 2D layout conditioning mechanism is used to control the placement and arrangement of scene elements. Experimental results indicate that BlockFusion is capable of generating diverse, geometrically consistent and unbounded large 3D scenes with unprecedented high-quality shapes in both indoor and outdoor scenarios.
PDF331December 15, 2024