ChatPaper.aiChatPaper

BlockFusion: Generación Expandible de Escenas 3D mediante Extrapolación de Tri-planos Latentes

BlockFusion: Expandable 3D Scene Generation using Latent Tri-plane Extrapolation

January 30, 2024
Autores: Zhennan Wu, Yang Li, Han Yan, Taizhang Shang, Weixuan Sun, Senbo Wang, Ruikai Cui, Weizhe Liu, Hiroyuki Sato, Hongdong Li, Pan Ji
cs.AI

Resumen

Presentamos BlockFusion, un modelo basado en difusión que genera escenas 3D como bloques unitarios e incorpora nuevos bloques de manera fluida para extender la escena. BlockFusion se entrena utilizando conjuntos de datos de bloques 3D que se recortan aleatoriamente de mallas completas de escenas 3D. Mediante un ajuste por bloque, todos los bloques de entrenamiento se convierten en campos neuronales híbridos: con un tri-plano que contiene las características geométricas, seguido de un Perceptrón Multicapa (MLP) para decodificar los valores de distancia con signo. Se emplea un auto-codificador variacional para comprimir los tri-planos en el espacio latente de tri-planos, sobre el cual se realiza el proceso de difusión de eliminación de ruido. La difusión aplicada a las representaciones latentes permite la generación de escenas 3D de alta calidad y diversidad. Para expandir una escena durante la generación, solo es necesario añadir bloques vacíos que se superpongan con la escena actual y extrapolar los tri-planos latentes existentes para poblar los nuevos bloques. La extrapolación se realiza condicionando el proceso de generación con muestras de características de los tri-planos superpuestos durante las iteraciones de eliminación de ruido. La extrapolación de tri-planos latentes produce transiciones semántica y geométricamente significativas que se integran armoniosamente con la escena existente. Se utiliza un mecanismo de condicionamiento de diseño 2D para controlar la ubicación y disposición de los elementos de la escena. Los resultados experimentales indican que BlockFusion es capaz de generar escenas 3D grandes, diversas, geométricamente consistentes y de alta calidad sin precedentes, tanto en escenarios interiores como exteriores.
English
We present BlockFusion, a diffusion-based model that generates 3D scenes as unit blocks and seamlessly incorporates new blocks to extend the scene. BlockFusion is trained using datasets of 3D blocks that are randomly cropped from complete 3D scene meshes. Through per-block fitting, all training blocks are converted into the hybrid neural fields: with a tri-plane containing the geometry features, followed by a Multi-layer Perceptron (MLP) for decoding the signed distance values. A variational auto-encoder is employed to compress the tri-planes into the latent tri-plane space, on which the denoising diffusion process is performed. Diffusion applied to the latent representations allows for high-quality and diverse 3D scene generation. To expand a scene during generation, one needs only to append empty blocks to overlap with the current scene and extrapolate existing latent tri-planes to populate new blocks. The extrapolation is done by conditioning the generation process with the feature samples from the overlapping tri-planes during the denoising iterations. Latent tri-plane extrapolation produces semantically and geometrically meaningful transitions that harmoniously blend with the existing scene. A 2D layout conditioning mechanism is used to control the placement and arrangement of scene elements. Experimental results indicate that BlockFusion is capable of generating diverse, geometrically consistent and unbounded large 3D scenes with unprecedented high-quality shapes in both indoor and outdoor scenarios.
PDF341December 15, 2024