ChatPaper.aiChatPaper

BlockFusion: Geração Expansível de Cenas 3D usando Extrapolação de Tri-planos Latentes

BlockFusion: Expandable 3D Scene Generation using Latent Tri-plane Extrapolation

January 30, 2024
Autores: Zhennan Wu, Yang Li, Han Yan, Taizhang Shang, Weixuan Sun, Senbo Wang, Ruikai Cui, Weizhe Liu, Hiroyuki Sato, Hongdong Li, Pan Ji
cs.AI

Resumo

Apresentamos o BlockFusion, um modelo baseado em difusão que gera cenas 3D como blocos unitários e incorpora novos blocos de forma contínua para expandir a cena. O BlockFusion é treinado utilizando conjuntos de dados de blocos 3D que são recortados aleatoriamente de malhas completas de cenas 3D. Por meio de ajuste por bloco, todos os blocos de treinamento são convertidos em campos neurais híbridos: com um triplano contendo as características geométricas, seguido por um Perceptron Multicamadas (MLP) para decodificar os valores de distância sinalizada. Um autoencoder variacional é empregado para comprimir os triplanos no espaço latente de triplanos, onde o processo de difusão de ruído é realizado. A difusão aplicada às representações latentes permite a geração de cenas 3D de alta qualidade e diversidade. Para expandir uma cena durante a geração, basta anexar blocos vazios que se sobreponham à cena atual e extrapolar os triplanos latentes existentes para preencher os novos blocos. A extrapolação é feita condicionando o processo de geração com amostras de características dos triplanos sobrepostos durante as iterações de remoção de ruído. A extrapolação de triplanos latentes produz transições semanticamente e geometricamente significativas que se integram harmoniosamente à cena existente. Um mecanismo de condicionamento de layout 2D é utilizado para controlar a colocação e o arranjo dos elementos da cena. Resultados experimentais indicam que o BlockFusion é capaz de gerar cenas 3D grandes, diversas, geometricamente consistentes e ilimitadas, com formas de qualidade sem precedentes em cenários internos e externos.
English
We present BlockFusion, a diffusion-based model that generates 3D scenes as unit blocks and seamlessly incorporates new blocks to extend the scene. BlockFusion is trained using datasets of 3D blocks that are randomly cropped from complete 3D scene meshes. Through per-block fitting, all training blocks are converted into the hybrid neural fields: with a tri-plane containing the geometry features, followed by a Multi-layer Perceptron (MLP) for decoding the signed distance values. A variational auto-encoder is employed to compress the tri-planes into the latent tri-plane space, on which the denoising diffusion process is performed. Diffusion applied to the latent representations allows for high-quality and diverse 3D scene generation. To expand a scene during generation, one needs only to append empty blocks to overlap with the current scene and extrapolate existing latent tri-planes to populate new blocks. The extrapolation is done by conditioning the generation process with the feature samples from the overlapping tri-planes during the denoising iterations. Latent tri-plane extrapolation produces semantically and geometrically meaningful transitions that harmoniously blend with the existing scene. A 2D layout conditioning mechanism is used to control the placement and arrangement of scene elements. Experimental results indicate that BlockFusion is capable of generating diverse, geometrically consistent and unbounded large 3D scenes with unprecedented high-quality shapes in both indoor and outdoor scenarios.
PDF331December 15, 2024