ChatPaper.aiChatPaper

PhysRig: 現実的な関節オブジェクトモデリングのための微分可能な物理ベーススキニングおよびリギングフレームワーク

PhysRig: Differentiable Physics-Based Skinning and Rigging Framework for Realistic Articulated Object Modeling

June 26, 2025
著者: Hao Zhang, Haolan Xu, Chun Feng, Varun Jampani, Narendra Ahuja
cs.AI

要旨

スキニングとリギングは、アニメーション、関節オブジェクトの再構築、モーショントランスファー、4D生成において基本的な要素です。既存のアプローチは、その簡潔さと微分可能性から、主にLinear Blend Skinning(LBS)に依存しています。しかし、LBSは体積の損失や不自然な変形といったアーティファクトを引き起こし、軟組織、毛皮、柔軟な付属器官(例えば、象の鼻、耳、脂肪組織)などの弾性材料をモデル化することができません。本研究では、これらの制限を克服するために、PhysRigを提案します。PhysRigは、剛体の骨格を体積表現(例えば、四面体メッシュ)に埋め込み、アニメーションされた骨格によって駆動される変形可能なソフトボディ構造としてシミュレートする、微分可能な物理ベースのスキニングおよびリギングフレームワークです。我々の手法は連続体力学を活用し、オブジェクトを粒子として離散化し、オイラー背景グリッドに埋め込むことで、材料特性と骨格運動の両方に対する微分可能性を確保します。さらに、材料プロトタイプを導入し、高い表現力を維持しながら学習空間を大幅に削減します。我々のフレームワークを評価するために、Objaverse、The Amazing Animals Zoo、MixaMoからのメッシュを使用して、多様なオブジェクトカテゴリとモーションパターンをカバーする包括的な合成データセットを構築しました。我々の手法は、従来のLBSベースのアプローチを一貫して上回り、より現実的で物理的に妥当な結果を生成します。さらに、ポーズ転送タスクにおける我々のフレームワークの適用性を示し、関節オブジェクトモデリングのためのその汎用性を強調します。
English
Skinning and rigging are fundamental components in animation, articulated object reconstruction, motion transfer, and 4D generation. Existing approaches predominantly rely on Linear Blend Skinning (LBS), due to its simplicity and differentiability. However, LBS introduces artifacts such as volume loss and unnatural deformations, and it fails to model elastic materials like soft tissues, fur, and flexible appendages (e.g., elephant trunks, ears, and fatty tissues). In this work, we propose PhysRig: a differentiable physics-based skinning and rigging framework that overcomes these limitations by embedding the rigid skeleton into a volumetric representation (e.g., a tetrahedral mesh), which is simulated as a deformable soft-body structure driven by the animated skeleton. Our method leverages continuum mechanics and discretizes the object as particles embedded in an Eulerian background grid to ensure differentiability with respect to both material properties and skeletal motion. Additionally, we introduce material prototypes, significantly reducing the learning space while maintaining high expressiveness. To evaluate our framework, we construct a comprehensive synthetic dataset using meshes from Objaverse, The Amazing Animals Zoo, and MixaMo, covering diverse object categories and motion patterns. Our method consistently outperforms traditional LBS-based approaches, generating more realistic and physically plausible results. Furthermore, we demonstrate the applicability of our framework in the pose transfer task highlighting its versatility for articulated object modeling.
PDF62June 27, 2025