Geração Eficiente de Objetos 3D em Nível de Parte via Empacotamento Dual de Volume
Efficient Part-level 3D Object Generation via Dual Volume Packing
June 11, 2025
Autores: Jiaxiang Tang, Ruijie Lu, Zhaoshuo Li, Zekun Hao, Xuan Li, Fangyin Wei, Shuran Song, Gang Zeng, Ming-Yu Liu, Tsung-Yi Lin
cs.AI
Resumo
Os recentes avanços na geração de objetos 3D têm melhorado significativamente tanto a qualidade quanto a eficiência. No entanto, a maioria dos métodos existentes gera uma única malha com todas as partes fundidas, o que limita a capacidade de editar ou manipular partes individuais. Um desafio crucial é que diferentes objetos podem ter um número variável de partes. Para resolver isso, propomos uma nova estrutura de ponta a ponta para a geração de objetos 3D em nível de partes. Dada uma única imagem de entrada, nosso método gera objetos 3D de alta qualidade com um número arbitrário de partes completas e semanticamente significativas. Introduzimos uma estratégia de empacotamento de volume duplo que organiza todas as partes em dois volumes complementares, permitindo a criação de partes completas e intercaladas que se montam no objeto final. Experimentos mostram que nosso modelo alcança melhor qualidade, diversidade e generalização do que os métodos anteriores de geração em nível de partes baseados em imagem.
English
Recent progress in 3D object generation has greatly improved both the quality
and efficiency. However, most existing methods generate a single mesh with all
parts fused together, which limits the ability to edit or manipulate individual
parts. A key challenge is that different objects may have a varying number of
parts. To address this, we propose a new end-to-end framework for part-level 3D
object generation. Given a single input image, our method generates
high-quality 3D objects with an arbitrary number of complete and semantically
meaningful parts. We introduce a dual volume packing strategy that organizes
all parts into two complementary volumes, allowing for the creation of complete
and interleaved parts that assemble into the final object. Experiments show
that our model achieves better quality, diversity, and generalization than
previous image-based part-level generation methods.