ChatPaper.aiChatPaper

Relightify:拡散モデルによる単一画像からの再照明可能な3D顔生成

Relightify: Relightable 3D Faces from a Single Image via Diffusion Models

May 10, 2023
著者: Foivos Paraperas Papantoniou, Alexandros Lattas, Stylianos Moschoglou, Stefanos Zafeiriou
cs.AI

要旨

拡散モデルの画像生成における顕著な成功を受けて、最近の研究では、条件付け入力を基にサンプリングプロセスを適切に制約することで、教師なしの方法で多くの逆問題に対処する印象的な能力も示されています。これに触発され、本論文では、単一画像からの高精度な3D顔BRDF再構成のための事前分布として拡散モデルを利用する初のアプローチを提案します。まず、高品質な顔反射率(拡散反射率、鏡面反射率、法線)のUVデータセットを活用し、さまざまな照明設定下でレンダリングして自然なRGBテクスチャをシミュレートし、その後、レンダリングされたテクスチャと反射率成分を連結したペアで無条件拡散モデルを学習します。テスト時には、与えられた画像に3Dモーファブルモデルをフィットさせ、部分的なUVテクスチャとして顔を展開します。拡散モデルからサンプリングしながら、観測されたテクスチャ部分をそのまま保持することで、モデルは自己遮蔽領域だけでなく未知の反射率成分も、単一のノイズ除去ステップのシーケンスでインペイントします。既存の手法とは対照的に、入力画像から直接観測テクスチャを取得するため、より忠実で一貫性のある反射率推定が可能になります。一連の定性的および定量的な比較を通じて、テクスチャ補完および反射率再構成タスクの両方で優れた性能を示します。
English
Following the remarkable success of diffusion models on image generation, recent works have also demonstrated their impressive ability to address a number of inverse problems in an unsupervised way, by properly constraining the sampling process based on a conditioning input. Motivated by this, in this paper, we present the first approach to use diffusion models as a prior for highly accurate 3D facial BRDF reconstruction from a single image. We start by leveraging a high-quality UV dataset of facial reflectance (diffuse and specular albedo and normals), which we render under varying illumination settings to simulate natural RGB textures and, then, train an unconditional diffusion model on concatenated pairs of rendered textures and reflectance components. At test time, we fit a 3D morphable model to the given image and unwrap the face in a partial UV texture. By sampling from the diffusion model, while retaining the observed texture part intact, the model inpaints not only the self-occluded areas but also the unknown reflectance components, in a single sequence of denoising steps. In contrast to existing methods, we directly acquire the observed texture from the input image, thus, resulting in more faithful and consistent reflectance estimation. Through a series of qualitative and quantitative comparisons, we demonstrate superior performance in both texture completion as well as reflectance reconstruction tasks.
PDF20December 15, 2024