FlashTex: Texturización Rápida de Mallas Reluminosas con LightControlNet
FlashTex: Fast Relightable Mesh Texturing with LightControlNet
February 20, 2024
Autores: Kangle Deng, Timothy Omernick, Alexander Weiss, Deva Ramanan, Jun-Yan Zhu, Tinghui Zhou, Maneesh Agrawala
cs.AI
Resumen
La creación manual de texturas para mallas 3D es un proceso que consume mucho tiempo, incluso para creadores expertos de contenido visual. Proponemos un enfoque rápido para texturizar automáticamente una malla 3D de entrada basado en una indicación de texto proporcionada por el usuario. Es importante destacar que nuestro enfoque separa la iluminación del material/superficie reflectante en la textura resultante, de modo que la malla pueda ser correctamente reiluminada y renderizada en cualquier entorno de iluminación. Introducimos LightControlNet, un nuevo modelo de texto a imagen basado en la arquitectura ControlNet, que permite especificar la iluminación deseada como una imagen de condicionamiento para el modelo. Nuestra canalización de texto a textura construye la textura en dos etapas. La primera etapa produce un conjunto disperso de vistas de referencia visualmente consistentes de la malla utilizando LightControlNet. La segunda etapa aplica una optimización de textura basada en Score Distillation Sampling (SDS) que trabaja con LightControlNet para aumentar la calidad de la textura mientras se separa el material de la superficie de la iluminación. Nuestra canalización es significativamente más rápida que los métodos anteriores de texto a textura, produciendo texturas de alta calidad y reiluminables.
English
Manually creating textures for 3D meshes is time-consuming, even for expert
visual content creators. We propose a fast approach for automatically texturing
an input 3D mesh based on a user-provided text prompt. Importantly, our
approach disentangles lighting from surface material/reflectance in the
resulting texture so that the mesh can be properly relit and rendered in any
lighting environment. We introduce LightControlNet, a new text-to-image model
based on the ControlNet architecture, which allows the specification of the
desired lighting as a conditioning image to the model. Our text-to-texture
pipeline then constructs the texture in two stages. The first stage produces a
sparse set of visually consistent reference views of the mesh using
LightControlNet. The second stage applies a texture optimization based on Score
Distillation Sampling (SDS) that works with LightControlNet to increase the
texture quality while disentangling surface material from lighting. Our
pipeline is significantly faster than previous text-to-texture methods, while
producing high-quality and relightable textures.