VolumeDiffusion: Generazione flessibile da testo a 3D con un codificatore volumetrico efficiente
VolumeDiffusion: Flexible Text-to-3D Generation with Efficient Volumetric Encoder
December 18, 2023
Autori: Zhicong Tang, Shuyang Gu, Chunyu Wang, Ting Zhang, Jianmin Bao, Dong Chen, Baining Guo
cs.AI
Abstract
Questo articolo introduce un innovativo codificatore volumetrico 3D progettato per la generazione di modelli 3D da testo. Per ampliare i dati di addestramento del modello di diffusione, è stata sviluppata una rete leggera per acquisire in modo efficiente volumi di feature da immagini multi-vista. I volumi 3D vengono poi addestrati su un modello di diffusione per la generazione di modelli 3D da testo utilizzando una 3D U-Net. La ricerca affronta inoltre le sfide legate alle descrizioni imprecise degli oggetti e ai volumi di feature ad alta dimensionalità. Il modello proposto, addestrato sul dataset pubblico Objaverse, dimostra risultati promettenti nella produzione di campioni diversificati e riconoscibili a partire da prompt testuali. In particolare, consente un controllo più fine sulle caratteristiche delle parti degli oggetti attraverso suggerimenti testuali, favorendo la creatività del modello mediante la combinazione fluida di più concetti all'interno di un singolo oggetto. Questa ricerca contribuisce significativamente al progresso della generazione 3D introducendo una metodologia di rappresentazione efficiente, flessibile e scalabile. Il codice è disponibile all'indirizzo https://github.com/tzco/VolumeDiffusion.
English
This paper introduces a pioneering 3D volumetric encoder designed for
text-to-3D generation. To scale up the training data for the diffusion model, a
lightweight network is developed to efficiently acquire feature volumes from
multi-view images. The 3D volumes are then trained on a diffusion model for
text-to-3D generation using a 3D U-Net. This research further addresses the
challenges of inaccurate object captions and high-dimensional feature volumes.
The proposed model, trained on the public Objaverse dataset, demonstrates
promising outcomes in producing diverse and recognizable samples from text
prompts. Notably, it empowers finer control over object part characteristics
through textual cues, fostering model creativity by seamlessly combining
multiple concepts within a single object. This research significantly
contributes to the progress of 3D generation by introducing an efficient,
flexible, and scalable representation methodology. Code is available at
https://github.com/tzco/VolumeDiffusion.