ChatPaper.aiChatPaper

FlashTex: Texturización Rápida de Mallas Reluminosas con LightControlNet

FlashTex: Fast Relightable Mesh Texturing with LightControlNet

February 20, 2024
Autores: Kangle Deng, Timothy Omernick, Alexander Weiss, Deva Ramanan, Jun-Yan Zhu, Tinghui Zhou, Maneesh Agrawala
cs.AI

Resumen

La creación manual de texturas para mallas 3D es un proceso que consume mucho tiempo, incluso para creadores expertos de contenido visual. Proponemos un enfoque rápido para texturizar automáticamente una malla 3D de entrada basado en una indicación de texto proporcionada por el usuario. Es importante destacar que nuestro enfoque separa la iluminación del material/superficie reflectante en la textura resultante, de modo que la malla pueda ser correctamente reiluminada y renderizada en cualquier entorno de iluminación. Introducimos LightControlNet, un nuevo modelo de texto a imagen basado en la arquitectura ControlNet, que permite especificar la iluminación deseada como una imagen de condicionamiento para el modelo. Nuestra canalización de texto a textura construye la textura en dos etapas. La primera etapa produce un conjunto disperso de vistas de referencia visualmente consistentes de la malla utilizando LightControlNet. La segunda etapa aplica una optimización de textura basada en Score Distillation Sampling (SDS) que trabaja con LightControlNet para aumentar la calidad de la textura mientras se separa el material de la superficie de la iluminación. Nuestra canalización es significativamente más rápida que los métodos anteriores de texto a textura, produciendo texturas de alta calidad y reiluminables.
English
Manually creating textures for 3D meshes is time-consuming, even for expert visual content creators. We propose a fast approach for automatically texturing an input 3D mesh based on a user-provided text prompt. Importantly, our approach disentangles lighting from surface material/reflectance in the resulting texture so that the mesh can be properly relit and rendered in any lighting environment. We introduce LightControlNet, a new text-to-image model based on the ControlNet architecture, which allows the specification of the desired lighting as a conditioning image to the model. Our text-to-texture pipeline then constructs the texture in two stages. The first stage produces a sparse set of visually consistent reference views of the mesh using LightControlNet. The second stage applies a texture optimization based on Score Distillation Sampling (SDS) that works with LightControlNet to increase the texture quality while disentangling surface material from lighting. Our pipeline is significantly faster than previous text-to-texture methods, while producing high-quality and relightable textures.
PDF151December 15, 2024