BlockFusion: Generazione Espandibile di Scene 3D mediante Estrapolazione di Tri-piani Latenti
BlockFusion: Expandable 3D Scene Generation using Latent Tri-plane Extrapolation
January 30, 2024
Autori: Zhennan Wu, Yang Li, Han Yan, Taizhang Shang, Weixuan Sun, Senbo Wang, Ruikai Cui, Weizhe Liu, Hiroyuki Sato, Hongdong Li, Pan Ji
cs.AI
Abstract
Presentiamo BlockFusion, un modello basato sulla diffusione che genera scene 3D come blocchi unitari e incorpora in modo fluido nuovi blocchi per estendere la scena. BlockFusion viene addestrato utilizzando dataset di blocchi 3D che vengono ritagliati casualmente da mesh complete di scene 3D. Attraverso un adattamento per blocco, tutti i blocchi di addestramento vengono convertiti in campi neurali ibridi: con un tri-piano contenente le caratteristiche geometriche, seguito da un Multi-layer Perceptron (MLP) per decodificare i valori di distanza con segno. Un autoencoder variazionale viene impiegato per comprimere i tri-piani nello spazio latente dei tri-piani, su cui viene eseguito il processo di diffusione del rumore. La diffusione applicata alle rappresentazioni latenti consente la generazione di scene 3D di alta qualità e diversificate. Per espandere una scena durante la generazione, è sufficiente aggiungere blocchi vuoti che si sovrappongono alla scena corrente ed estrapolare i tri-piani latenti esistenti per popolare i nuovi blocchi. L'estrapolazione viene eseguita condizionando il processo di generazione con i campioni di caratteristiche provenienti dai tri-piani sovrapposti durante le iterazioni di rimozione del rumore. L'estrapolazione del tri-piano latente produce transizioni semanticamente e geometricamente significative che si fondono armoniosamente con la scena esistente. Un meccanismo di condizionamento del layout 2D viene utilizzato per controllare il posizionamento e la disposizione degli elementi della scena. I risultati sperimentali indicano che BlockFusion è in grado di generare scene 3D grandi, diversificate, geometricamente coerenti e illimitate con forme di qualità senza precedenti sia in scenari interni che esterni.
English
We present BlockFusion, a diffusion-based model that generates 3D scenes as
unit blocks and seamlessly incorporates new blocks to extend the scene.
BlockFusion is trained using datasets of 3D blocks that are randomly cropped
from complete 3D scene meshes. Through per-block fitting, all training blocks
are converted into the hybrid neural fields: with a tri-plane containing the
geometry features, followed by a Multi-layer Perceptron (MLP) for decoding the
signed distance values. A variational auto-encoder is employed to compress the
tri-planes into the latent tri-plane space, on which the denoising diffusion
process is performed. Diffusion applied to the latent representations allows
for high-quality and diverse 3D scene generation. To expand a scene during
generation, one needs only to append empty blocks to overlap with the current
scene and extrapolate existing latent tri-planes to populate new blocks. The
extrapolation is done by conditioning the generation process with the feature
samples from the overlapping tri-planes during the denoising iterations. Latent
tri-plane extrapolation produces semantically and geometrically meaningful
transitions that harmoniously blend with the existing scene. A 2D layout
conditioning mechanism is used to control the placement and arrangement of
scene elements. Experimental results indicate that BlockFusion is capable of
generating diverse, geometrically consistent and unbounded large 3D scenes with
unprecedented high-quality shapes in both indoor and outdoor scenarios.