FlashTex : Texturage rapide de maillages relightables avec LightControlNet
FlashTex: Fast Relightable Mesh Texturing with LightControlNet
February 20, 2024
papers.authors: Kangle Deng, Timothy Omernick, Alexander Weiss, Deva Ramanan, Jun-Yan Zhu, Tinghui Zhou, Maneesh Agrawala
cs.AI
papers.abstract
La création manuelle de textures pour des maillages 3D est chronophage, même pour des créateurs de contenu visuel experts. Nous proposons une approche rapide pour texturer automatiquement un maillage 3D en entrée à partir d'une invite textuelle fournie par l'utilisateur. De manière cruciale, notre approche dissocie l'éclairage du matériau de surface/réflectance dans la texture résultante, permettant ainsi au maillage d'être correctement rééclairé et rendu dans n'importe quel environnement lumineux. Nous introduisons LightControlNet, un nouveau modèle de génération d'images à partir de texte basé sur l'architecture ControlNet, qui permet de spécifier l'éclairage souhaité sous forme d'une image de conditionnement pour le modèle. Notre pipeline de génération de textures à partir de texte construit ensuite la texture en deux étapes. La première étape produit un ensemble épars de vues de référence visuellement cohérentes du maillage en utilisant LightControlNet. La deuxième étape applique une optimisation de texture basée sur le Score Distillation Sampling (SDS) qui fonctionne avec LightControlNet pour améliorer la qualité de la texture tout en dissociant le matériau de surface de l'éclairage. Notre pipeline est nettement plus rapide que les méthodes précédentes de génération de textures à partir de texte, tout en produisant des textures de haute qualité et rééclairables.
English
Manually creating textures for 3D meshes is time-consuming, even for expert
visual content creators. We propose a fast approach for automatically texturing
an input 3D mesh based on a user-provided text prompt. Importantly, our
approach disentangles lighting from surface material/reflectance in the
resulting texture so that the mesh can be properly relit and rendered in any
lighting environment. We introduce LightControlNet, a new text-to-image model
based on the ControlNet architecture, which allows the specification of the
desired lighting as a conditioning image to the model. Our text-to-texture
pipeline then constructs the texture in two stages. The first stage produces a
sparse set of visually consistent reference views of the mesh using
LightControlNet. The second stage applies a texture optimization based on Score
Distillation Sampling (SDS) that works with LightControlNet to increase the
texture quality while disentangling surface material from lighting. Our
pipeline is significantly faster than previous text-to-texture methods, while
producing high-quality and relightable textures.