ChatPaper.aiChatPaper

FlashTex: Mesh Testurizzazione Rapida con Illuminazione Controllabile tramite LightControlNet

FlashTex: Fast Relightable Mesh Texturing with LightControlNet

February 20, 2024
Autori: Kangle Deng, Timothy Omernick, Alexander Weiss, Deva Ramanan, Jun-Yan Zhu, Tinghui Zhou, Maneesh Agrawala
cs.AI

Abstract

La creazione manuale di texture per mesh 3D è un processo dispendioso in termini di tempo, anche per esperti creatori di contenuti visivi. Proponiamo un approccio rapido per la texturizzazione automatica di una mesh 3D in input basato su un prompt testuale fornito dall'utente. In modo cruciale, il nostro approccio separa l'illuminazione dal materiale/riflettanza della superficie nella texture risultante, consentendo alla mesh di essere correttamente riluminata e renderizzata in qualsiasi ambiente di illuminazione. Introduciamo LightControlNet, un nuovo modello text-to-image basato sull'architettura ControlNet, che permette di specificare l'illuminazione desiderata come immagine di condizionamento per il modello. La nostra pipeline text-to-texture costruisce la texture in due fasi. La prima fase produce un insieme sparso di viste di riferimento visivamente coerenti della mesh utilizzando LightControlNet. La seconda fase applica un'ottimizzazione della texture basata su Score Distillation Sampling (SDS) che lavora con LightControlNet per aumentare la qualità della texture mentre separa il materiale della superficie dall'illuminazione. La nostra pipeline è significativamente più veloce rispetto ai precedenti metodi text-to-texture, producendo texture di alta qualità e riluminabili.
English
Manually creating textures for 3D meshes is time-consuming, even for expert visual content creators. We propose a fast approach for automatically texturing an input 3D mesh based on a user-provided text prompt. Importantly, our approach disentangles lighting from surface material/reflectance in the resulting texture so that the mesh can be properly relit and rendered in any lighting environment. We introduce LightControlNet, a new text-to-image model based on the ControlNet architecture, which allows the specification of the desired lighting as a conditioning image to the model. Our text-to-texture pipeline then constructs the texture in two stages. The first stage produces a sparse set of visually consistent reference views of the mesh using LightControlNet. The second stage applies a texture optimization based on Score Distillation Sampling (SDS) that works with LightControlNet to increase the texture quality while disentangling surface material from lighting. Our pipeline is significantly faster than previous text-to-texture methods, while producing high-quality and relightable textures.
PDF151December 15, 2024