VolumeDiffusion: Гибкая генерация текста в 3D с использованием эффективного объемного кодировщика
VolumeDiffusion: Flexible Text-to-3D Generation with Efficient Volumetric Encoder
December 18, 2023
Авторы: Zhicong Tang, Shuyang Gu, Chunyu Wang, Ting Zhang, Jianmin Bao, Dong Chen, Baining Guo
cs.AI
Аннотация
В данной статье представлен инновационный 3D объемный кодировщик, разработанный для генерации 3D-моделей из текста. Для масштабирования обучающих данных диффузионной модели создана легковесная сеть, которая эффективно извлекает объемные признаки из многовидовых изображений. Затем 3D-объемы обучаются на диффузионной модели для генерации 3D-моделей из текста с использованием 3D U-Net. В исследовании также рассматриваются проблемы неточных описаний объектов и высокоразмерных объемных признаков. Предложенная модель, обученная на общедоступном наборе данных Objaverse, демонстрирует многообещающие результаты в создании разнообразных и узнаваемых образцов на основе текстовых запросов. Особенно важно, что она обеспечивает более точный контроль над характеристиками частей объекта с помощью текстовых подсказок, способствуя креативности модели за счет бесшовного объединения нескольких концепций в одном объекте. Данное исследование вносит значительный вклад в развитие генерации 3D-моделей, предлагая эффективную, гибкую и масштабируемую методологию представления. Код доступен по адресу https://github.com/tzco/VolumeDiffusion.
English
This paper introduces a pioneering 3D volumetric encoder designed for
text-to-3D generation. To scale up the training data for the diffusion model, a
lightweight network is developed to efficiently acquire feature volumes from
multi-view images. The 3D volumes are then trained on a diffusion model for
text-to-3D generation using a 3D U-Net. This research further addresses the
challenges of inaccurate object captions and high-dimensional feature volumes.
The proposed model, trained on the public Objaverse dataset, demonstrates
promising outcomes in producing diverse and recognizable samples from text
prompts. Notably, it empowers finer control over object part characteristics
through textual cues, fostering model creativity by seamlessly combining
multiple concepts within a single object. This research significantly
contributes to the progress of 3D generation by introducing an efficient,
flexible, and scalable representation methodology. Code is available at
https://github.com/tzco/VolumeDiffusion.