VolumeDiffusion: Generación flexible de texto a 3D con un codificador volumétrico eficiente
VolumeDiffusion: Flexible Text-to-3D Generation with Efficient Volumetric Encoder
December 18, 2023
Autores: Zhicong Tang, Shuyang Gu, Chunyu Wang, Ting Zhang, Jianmin Bao, Dong Chen, Baining Guo
cs.AI
Resumen
Este artículo presenta un codificador volumétrico 3D pionero diseñado para la generación de texto a 3D. Para ampliar los datos de entrenamiento del modelo de difusión, se desarrolla una red ligera que adquiere eficientemente volúmenes de características a partir de imágenes multivista. Los volúmenes 3D se entrenan luego en un modelo de difusión para la generación de texto a 3D utilizando una U-Net 3D. Esta investigación aborda además los desafíos de las descripciones de objetos imprecisas y los volúmenes de características de alta dimensionalidad. El modelo propuesto, entrenado en el conjunto de datos público Objaverse, demuestra resultados prometedores en la producción de muestras diversas y reconocibles a partir de indicaciones de texto. Destaca especialmente su capacidad para permitir un control más preciso sobre las características de las partes del objeto mediante señales textuales, fomentando la creatividad del modelo al combinar sin problemas múltiples conceptos dentro de un solo objeto. Esta investigación contribuye significativamente al avance de la generación 3D al introducir una metodología de representación eficiente, flexible y escalable. El código está disponible en https://github.com/tzco/VolumeDiffusion.
English
This paper introduces a pioneering 3D volumetric encoder designed for
text-to-3D generation. To scale up the training data for the diffusion model, a
lightweight network is developed to efficiently acquire feature volumes from
multi-view images. The 3D volumes are then trained on a diffusion model for
text-to-3D generation using a 3D U-Net. This research further addresses the
challenges of inaccurate object captions and high-dimensional feature volumes.
The proposed model, trained on the public Objaverse dataset, demonstrates
promising outcomes in producing diverse and recognizable samples from text
prompts. Notably, it empowers finer control over object part characteristics
through textual cues, fostering model creativity by seamlessly combining
multiple concepts within a single object. This research significantly
contributes to the progress of 3D generation by introducing an efficient,
flexible, and scalable representation methodology. Code is available at
https://github.com/tzco/VolumeDiffusion.