ChatPaper.aiChatPaper

BlockFusion: Erweiterbare 3D-Szenengenerierung mittels latenter Triplane-Extrapolation

BlockFusion: Expandable 3D Scene Generation using Latent Tri-plane Extrapolation

January 30, 2024
Autoren: Zhennan Wu, Yang Li, Han Yan, Taizhang Shang, Weixuan Sun, Senbo Wang, Ruikai Cui, Weizhe Liu, Hiroyuki Sato, Hongdong Li, Pan Ji
cs.AI

Zusammenfassung

Wir präsentieren BlockFusion, ein diffusionsbasiertes Modell, das 3D-Szenen als Einheitsblöcke generiert und neue Blöcke nahtlos einfügt, um die Szene zu erweitern. BlockFusion wird mit Datensätzen von 3D-Blöcken trainiert, die zufällig aus vollständigen 3D-Szenenmeshes ausgeschnitten werden. Durch eine Block-für-Block-Anpassung werden alle Trainingsblöcke in hybride neuronale Felder umgewandelt: mit einer Tri-Ebene, die die Geometrie-Features enthält, gefolgt von einem Multi-Layer Perceptron (MLP) zur Dekodierung der signierten Distanzwerte. Ein Variational Auto-Encoder wird verwendet, um die Tri-Ebenen in den latenten Tri-Ebenen-Raum zu komprimieren, auf dem der Denoising-Diffusionsprozess durchgeführt wird. Die Anwendung der Diffusion auf die latenten Repräsentationen ermöglicht die Erzeugung hochwertiger und vielfältiger 3D-Szenen. Um eine Szene während der Generierung zu erweitern, müssen lediglich leere Blöcke hinzugefügt werden, die sich mit der aktuellen Szene überlappen, und bestehende latente Tri-Ebenen extrapoliert werden, um neue Blöcke zu füllen. Die Extrapolation erfolgt, indem der Generierungsprozess mit den Feature-Samples aus den überlappenden Tri-Ebenen während der Denoising-Iterationen bedingt wird. Die Extrapolation latenter Tri-Ebenen erzeugt semantisch und geometrisch sinnvolle Übergänge, die sich harmonisch in die bestehende Szene einfügen. Ein 2D-Layout-Bedingungsmechanismus wird verwendet, um die Platzierung und Anordnung der Szenenelemente zu steuern. Experimentelle Ergebnisse zeigen, dass BlockFusion in der Lage ist, vielfältige, geometrisch konsistente und unbegrenzt große 3D-Szenen mit bisher unerreichter Qualität in Innen- und Außenbereichen zu generieren.
English
We present BlockFusion, a diffusion-based model that generates 3D scenes as unit blocks and seamlessly incorporates new blocks to extend the scene. BlockFusion is trained using datasets of 3D blocks that are randomly cropped from complete 3D scene meshes. Through per-block fitting, all training blocks are converted into the hybrid neural fields: with a tri-plane containing the geometry features, followed by a Multi-layer Perceptron (MLP) for decoding the signed distance values. A variational auto-encoder is employed to compress the tri-planes into the latent tri-plane space, on which the denoising diffusion process is performed. Diffusion applied to the latent representations allows for high-quality and diverse 3D scene generation. To expand a scene during generation, one needs only to append empty blocks to overlap with the current scene and extrapolate existing latent tri-planes to populate new blocks. The extrapolation is done by conditioning the generation process with the feature samples from the overlapping tri-planes during the denoising iterations. Latent tri-plane extrapolation produces semantically and geometrically meaningful transitions that harmoniously blend with the existing scene. A 2D layout conditioning mechanism is used to control the placement and arrangement of scene elements. Experimental results indicate that BlockFusion is capable of generating diverse, geometrically consistent and unbounded large 3D scenes with unprecedented high-quality shapes in both indoor and outdoor scenarios.
PDF341December 15, 2024