ChatPaper.aiChatPaper

MaskedMimic: マスクされた動き補完を通じた統一された物理ベースのキャラクターコントロール

MaskedMimic: Unified Physics-Based Character Control Through Masked Motion Inpainting

September 22, 2024
著者: Chen Tessler, Yunrong Guo, Ofir Nabati, Gal Chechik, Xue Bin Peng
cs.AI

要旨

幅広いシナリオでインタラクティブなキャラクターに命を吹き込むことができる単一で多目的な物理ベースのコントローラを作成することは、キャラクターアニメーションの刺激的なフロンティアを表しています。理想的なコントローラは、疎なターゲットキーフレーム、テキスト指示、シーン情報など、多様な制御モダリティをサポートすべきです。従来の研究では、物理シミュレーションされた、シーンを認識する制御モデルが提案されてきましたが、これらのシステムは主に、特定の一連のタスクと制御モダリティに特化したコントローラの開発に焦点を当ててきました。本研究では、MaskedMimicという新しいアプローチを提案し、物理ベースのキャラクターコントロールを一般的なモーションインペインティング問題として定式化します。私たちの主要な洞察は、マスクされたキーフレーム、オブジェクト、テキストの説明など、部分的な(マスクされた)モーション記述からモーションを合成するために単一の統合モデルをトレーニングすることです。これは、モーショントラッキングデータを活用し、多様なモーション記述を効果的に利用して整合性のあるアニメーションを生成するためのスケーラブルなトレーニング方法を設計することによって達成されます。このプロセスを通じて、私たちのアプローチは、興味の対象とするすべての行動に対して煩わしい報酬エンジニアリングを必要とせずに直感的な制御インターフェースを提供する物理ベースのコントローラを学習します。その結果得られるコントローラは、幅広い制御モダリティをサポートし、異なるタスク間でシームレスな遷移を可能にします。モーションインペインティングを通じてキャラクターコントロールを統一することで、MaskedMimicは多目的な仮想キャラクターを作成します。これらのキャラクターは、複雑なシーンに動的に適応し、要求に応じて多様なモーションを構成することができ、よりインタラクティブで没入感のある体験を可能にします。
English
Crafting a single, versatile physics-based controller that can breathe life into interactive characters across a wide spectrum of scenarios represents an exciting frontier in character animation. An ideal controller should support diverse control modalities, such as sparse target keyframes, text instructions, and scene information. While previous works have proposed physically simulated, scene-aware control models, these systems have predominantly focused on developing controllers that each specializes in a narrow set of tasks and control modalities. This work presents MaskedMimic, a novel approach that formulates physics-based character control as a general motion inpainting problem. Our key insight is to train a single unified model to synthesize motions from partial (masked) motion descriptions, such as masked keyframes, objects, text descriptions, or any combination thereof. This is achieved by leveraging motion tracking data and designing a scalable training method that can effectively utilize diverse motion descriptions to produce coherent animations. Through this process, our approach learns a physics-based controller that provides an intuitive control interface without requiring tedious reward engineering for all behaviors of interest. The resulting controller supports a wide range of control modalities and enables seamless transitions between disparate tasks. By unifying character control through motion inpainting, MaskedMimic creates versatile virtual characters. These characters can dynamically adapt to complex scenes and compose diverse motions on demand, enabling more interactive and immersive experiences.

Summary

AI-Generated Summary

PDF92November 16, 2024