VolumeDiffusion: Flexible Text-zu-3D-Generierung mit effizientem volumetrischem Encoder
VolumeDiffusion: Flexible Text-to-3D Generation with Efficient Volumetric Encoder
December 18, 2023
Autoren: Zhicong Tang, Shuyang Gu, Chunyu Wang, Ting Zhang, Jianmin Bao, Dong Chen, Baining Guo
cs.AI
Zusammenfassung
Dieses Papier stellt einen bahnbrechenden 3D-volumetrischen Encoder vor, der für die Text-zu-3D-Generierung entwickelt wurde. Um die Trainingsdaten für das Diffusionsmodell zu skalieren, wurde ein leichtgewichtiges Netzwerk entwickelt, um effizient Feature-Volumen aus Multi-View-Bildern zu erzeugen. Die 3D-Volumen werden anschließend mit einem 3D U-Net auf einem Diffusionsmodell für die Text-zu-3D-Generierung trainiert. Diese Forschung geht zudem auf die Herausforderungen ungenauer Objektbeschreibungen und hochdimensionaler Feature-Volumen ein. Das vorgeschlagene Modell, das auf dem öffentlichen Objaverse-Datensatz trainiert wurde, zeigt vielversprechende Ergebnisse bei der Erzeugung vielfältiger und erkennbarer Proben aus Textprompts. Besonders hervorzuheben ist, dass es eine präzisere Kontrolle über die Eigenschaften von Objektteilen durch textuelle Hinweise ermöglicht und die Kreativität des Modells fördert, indem es mehrere Konzepte nahtlos in einem einzelnen Objekt kombiniert. Diese Forschung leistet einen bedeutenden Beitrag zum Fortschritt der 3D-Generierung, indem sie eine effiziente, flexible und skalierbare Darstellungsmethodik einführt. Der Code ist unter https://github.com/tzco/VolumeDiffusion verfügbar.
English
This paper introduces a pioneering 3D volumetric encoder designed for
text-to-3D generation. To scale up the training data for the diffusion model, a
lightweight network is developed to efficiently acquire feature volumes from
multi-view images. The 3D volumes are then trained on a diffusion model for
text-to-3D generation using a 3D U-Net. This research further addresses the
challenges of inaccurate object captions and high-dimensional feature volumes.
The proposed model, trained on the public Objaverse dataset, demonstrates
promising outcomes in producing diverse and recognizable samples from text
prompts. Notably, it empowers finer control over object part characteristics
through textual cues, fostering model creativity by seamlessly combining
multiple concepts within a single object. This research significantly
contributes to the progress of 3D generation by introducing an efficient,
flexible, and scalable representation methodology. Code is available at
https://github.com/tzco/VolumeDiffusion.