FlashTex: LightControlNetによる高速リライタブルメッシュテクスチャリング
FlashTex: Fast Relightable Mesh Texturing with LightControlNet
February 20, 2024
著者: Kangle Deng, Timothy Omernick, Alexander Weiss, Deva Ramanan, Jun-Yan Zhu, Tinghui Zhou, Maneesh Agrawala
cs.AI
要旨
3Dメッシュのテクスチャを手動で作成することは、熟練したビジュアルコンテンツクリエーターにとっても時間のかかる作業です。本論文では、ユーザーが提供するテキストプロンプトに基づいて、入力された3Dメッシュに自動的にテクスチャを適用する高速なアプローチを提案します。重要な点として、このアプローチでは、結果として得られるテクスチャにおいて照明と表面材質/反射率を分離し、メッシュを任意の照明環境で適切に再照明およびレンダリングできるようにします。本論文では、ControlNetアーキテクチャに基づく新しいテキストから画像へのモデルであるLightControlNetを導入します。このモデルでは、所望の照明を条件付け画像として指定することが可能です。我々のテキストからテクスチャへのパイプラインは、2段階でテクスチャを構築します。第1段階では、LightControlNetを使用して、メッシュの視覚的に一貫した参照ビューの疎なセットを生成します。第2段階では、Score Distillation Sampling (SDS)に基づくテクスチャ最適化を適用し、LightControlNetと連携してテクスチャの品質を向上させながら、表面材質と照明を分離します。我々のパイプラインは、従来のテキストからテクスチャへの手法よりも大幅に高速でありながら、高品質で再照明可能なテクスチャを生成します。
English
Manually creating textures for 3D meshes is time-consuming, even for expert
visual content creators. We propose a fast approach for automatically texturing
an input 3D mesh based on a user-provided text prompt. Importantly, our
approach disentangles lighting from surface material/reflectance in the
resulting texture so that the mesh can be properly relit and rendered in any
lighting environment. We introduce LightControlNet, a new text-to-image model
based on the ControlNet architecture, which allows the specification of the
desired lighting as a conditioning image to the model. Our text-to-texture
pipeline then constructs the texture in two stages. The first stage produces a
sparse set of visually consistent reference views of the mesh using
LightControlNet. The second stage applies a texture optimization based on Score
Distillation Sampling (SDS) that works with LightControlNet to increase the
texture quality while disentangling surface material from lighting. Our
pipeline is significantly faster than previous text-to-texture methods, while
producing high-quality and relightable textures.