ChatPaper.aiChatPaper

フォトリアルなアバターの高速登録によるVR顔面アニメーション

Fast Registration of Photorealistic Avatars for VR Facial Animation

January 19, 2024
著者: Chaitanya Patel, Shaojie Bai, Te-Li Wang, Jason Saragih, Shih-En Wei
cs.AI

要旨

仮想現実(VR)は、他のメディアよりも没入感の高い社会的相互作用を実現する可能性を秘めています。その鍵となるのは、VRヘッドセットを装着しながら、自分の外見を忠実に再現したフォトリアルなアバターを正確にアニメーション化する能力です。オフライン環境では、個人に特化したアバターをヘッドセット搭載カメラ(HMC)画像に高精度で登録することが可能ですが、汎用的なリアルタイムモデルの性能は大幅に低下します。また、斜めからのカメラ視点やモダリティの違いにより、オンライン登録も困難です。本研究ではまず、アバターとヘッドセットカメラ画像間のドメインギャップが主要な困難の源であることを示し、トランスフォーマーベースのアーキテクチャがドメイン整合データでは高い精度を達成するものの、ドメインギャップが再導入されると性能が低下することを明らかにします。この知見を基に、問題を2つの部分に分離するシステム設計を開発しました:1)ドメイン内の入力を処理する反復的リファインメントモジュール、および2)現在の表情と頭部姿勢の推定に基づいて条件付けられる汎用アバター誘導型画像間スタイル変換モジュールです。これら2つのモジュールは相互に補強し合い、グラウンドトゥルースに近い例が提示されると画像スタイル変換が容易になり、ドメインギャップの除去が改善されると登録精度が向上します。本システムは、高品質な結果を効率的に生成し、個人化されたラベルを生成するための高コストなオフライン登録の必要性を排除します。市販のヘッドセットを用いた広範な実験を通じて、本アプローチの精度と効率を検証し、直接回帰法やオフライン登録と比較して大幅な改善を示しました。
English
Virtual Reality (VR) bares promise of social interactions that can feel more immersive than other media. Key to this is the ability to accurately animate a photorealistic avatar of one's likeness while wearing a VR headset. Although high quality registration of person-specific avatars to headset-mounted camera (HMC) images is possible in an offline setting, the performance of generic realtime models are significantly degraded. Online registration is also challenging due to oblique camera views and differences in modality. In this work, we first show that the domain gap between the avatar and headset-camera images is one of the primary sources of difficulty, where a transformer-based architecture achieves high accuracy on domain-consistent data, but degrades when the domain-gap is re-introduced. Building on this finding, we develop a system design that decouples the problem into two parts: 1) an iterative refinement module that takes in-domain inputs, and 2) a generic avatar-guided image-to-image style transfer module that is conditioned on current estimation of expression and head pose. These two modules reinforce each other, as image style transfer becomes easier when close-to-ground-truth examples are shown, and better domain-gap removal helps registration. Our system produces high-quality results efficiently, obviating the need for costly offline registration to generate personalized labels. We validate the accuracy and efficiency of our approach through extensive experiments on a commodity headset, demonstrating significant improvements over direct regression methods as well as offline registration.
PDF21December 15, 2024