BlockFusion : Génération de scènes 3D extensibles par extrapolation de tri-plans latents
BlockFusion: Expandable 3D Scene Generation using Latent Tri-plane Extrapolation
January 30, 2024
Auteurs: Zhennan Wu, Yang Li, Han Yan, Taizhang Shang, Weixuan Sun, Senbo Wang, Ruikai Cui, Weizhe Liu, Hiroyuki Sato, Hongdong Li, Pan Ji
cs.AI
Résumé
Nous présentons BlockFusion, un modèle basé sur la diffusion qui génère des scènes 3D sous forme de blocs unitaires et intègre de manière fluide de nouveaux blocs pour étendre la scène. BlockFusion est entraîné à l'aide de jeux de données de blocs 3D découpés aléatoirement à partir de maillages de scènes 3D complètes. Grâce à un ajustement par bloc, tous les blocs d'entraînement sont convertis en champs neuronaux hybrides : avec un tri-plan contenant les caractéristiques géométriques, suivi d'un Perceptron Multicouche (MLP) pour décoder les valeurs de distance signée. Un auto-encodeur variationnel est utilisé pour compresser les tri-plans dans l'espace latent des tri-plans, sur lequel le processus de diffusion de débruitage est appliqué. La diffusion appliquée aux représentations latentes permet une génération de scènes 3D de haute qualité et diversifiée. Pour étendre une scène lors de la génération, il suffit d'ajouter des blocs vides qui se superposent à la scène actuelle et d'extrapoler les tri-plans latents existants pour remplir les nouveaux blocs. L'extrapolation est réalisée en conditionnant le processus de génération avec les échantillons de caractéristiques des tri-plans superposés pendant les itérations de débruitage. L'extrapolation des tri-plans latents produit des transitions sémantiquement et géométriquement significatives qui s'harmonisent parfaitement avec la scène existante. Un mécanisme de conditionnement de mise en page 2D est utilisé pour contrôler le placement et l'agencement des éléments de la scène. Les résultats expérimentaux montrent que BlockFusion est capable de générer des scènes 3D grandes, diversifiées, géométriquement cohérentes et sans limites, avec des formes de qualité inégalée dans des scénarios intérieurs et extérieurs.
English
We present BlockFusion, a diffusion-based model that generates 3D scenes as
unit blocks and seamlessly incorporates new blocks to extend the scene.
BlockFusion is trained using datasets of 3D blocks that are randomly cropped
from complete 3D scene meshes. Through per-block fitting, all training blocks
are converted into the hybrid neural fields: with a tri-plane containing the
geometry features, followed by a Multi-layer Perceptron (MLP) for decoding the
signed distance values. A variational auto-encoder is employed to compress the
tri-planes into the latent tri-plane space, on which the denoising diffusion
process is performed. Diffusion applied to the latent representations allows
for high-quality and diverse 3D scene generation. To expand a scene during
generation, one needs only to append empty blocks to overlap with the current
scene and extrapolate existing latent tri-planes to populate new blocks. The
extrapolation is done by conditioning the generation process with the feature
samples from the overlapping tri-planes during the denoising iterations. Latent
tri-plane extrapolation produces semantically and geometrically meaningful
transitions that harmoniously blend with the existing scene. A 2D layout
conditioning mechanism is used to control the placement and arrangement of
scene elements. Experimental results indicate that BlockFusion is capable of
generating diverse, geometrically consistent and unbounded large 3D scenes with
unprecedented high-quality shapes in both indoor and outdoor scenarios.