Generación de Texto a 3D con Difusión Bidireccional utilizando Priors tanto en 2D como en 3D
Text-to-3D Generation with Bidirectional Diffusion using both 2D and 3D priors
December 7, 2023
Autores: Lihe Ding, Shaocong Dong, Zhanpeng Huang, Zibin Wang, Yiyuan Zhang, Kaixiong Gong, Dan Xu, Tianfan Xue
cs.AI
Resumen
La mayoría de las investigaciones sobre generación 3D se centran en proyectar modelos fundamentales 2D al espacio 3D, ya sea minimizando la pérdida de Muestreo de Distilación de Puntaje 2D (SDS) o ajustando finamente en conjuntos de datos multivista. Sin priores 3D explícitos, estos métodos suelen generar anomalías geométricas e inconsistencias multivista. Recientemente, los investigadores han intentado mejorar la autenticidad de los objetos 3D entrenando directamente en conjuntos de datos 3D, aunque a costa de una generación de texturas de baja calidad debido a la diversidad limitada de texturas en estos conjuntos. Para aprovechar las ventajas de ambos enfoques, proponemos Difusión Bidireccional (BiDiff), un marco unificado que incorpora tanto un proceso de difusión 3D como uno 2D, preservando respectivamente la fidelidad 3D y la riqueza de texturas 2D. Además, dado que una combinación simple podría generar resultados inconsistentes, los conectamos mediante una guía bidireccional novedosa. Adicionalmente, nuestro método puede usarse como inicialización para modelos basados en optimización, mejorando aún más la calidad del modelo 3D y la eficiencia de la optimización, reduciendo el proceso de generación de 3.4 horas a 20 minutos. Los resultados experimentales muestran que nuestro modelo logra una generación 3D de alta calidad, diversa y escalable. Sitio del proyecto: https://bidiff.github.io/.
English
Most 3D generation research focuses on up-projecting 2D foundation models
into the 3D space, either by minimizing 2D Score Distillation Sampling (SDS)
loss or fine-tuning on multi-view datasets. Without explicit 3D priors, these
methods often lead to geometric anomalies and multi-view inconsistency.
Recently, researchers have attempted to improve the genuineness of 3D objects
by directly training on 3D datasets, albeit at the cost of low-quality texture
generation due to the limited texture diversity in 3D datasets. To harness the
advantages of both approaches, we propose Bidirectional Diffusion(BiDiff), a
unified framework that incorporates both a 3D and a 2D diffusion process, to
preserve both 3D fidelity and 2D texture richness, respectively. Moreover, as a
simple combination may yield inconsistent generation results, we further bridge
them with novel bidirectional guidance. In addition, our method can be used as
an initialization of optimization-based models to further improve the quality
of 3D model and efficiency of optimization, reducing the generation process
from 3.4 hours to 20 minutes. Experimental results have shown that our model
achieves high-quality, diverse, and scalable 3D generation. Project website:
https://bidiff.github.io/.