PhysRig: 물리 기반 스키닝 및 리깅 프레임워크를 통한 현실적인 관절형 객체 모델링
PhysRig: Differentiable Physics-Based Skinning and Rigging Framework for Realistic Articulated Object Modeling
June 26, 2025
저자: Hao Zhang, Haolan Xu, Chun Feng, Varun Jampani, Narendra Ahuja
cs.AI
초록
스키닝과 리깅은 애니메이션, 관절 객체 재구성, 모션 전이, 그리고 4D 생성에서 기본적인 구성 요소입니다. 기존의 접근법은 주로 선형 블렌드 스키닝(LBS)에 의존하는데, 이는 단순성과 미분 가능성 때문입니다. 그러나 LBS는 부피 손실과 비자연스러운 변형과 같은 아티팩트를 유발하며, 연성 조직, 털, 그리고 유연한 부속물(예: 코끼리 코, 귀, 지방 조직)과 같은 탄성 재료를 모델링하지 못합니다. 본 연구에서는 이러한 한계를 극복하기 위해 PhysRig를 제안합니다: PhysRig는 강체 골격을 체적 표현(예: 사면체 메쉬)에 내장하고, 이를 애니메이션된 골격에 의해 구동되는 변형 가능한 연체 구조로 시뮬레이션하는 미분 가능한 물리 기반 스키닝 및 리깅 프레임워크입니다. 우리의 방법은 연속체 역학을 활용하고 객체를 오일러 배경 그리드에 내장된 입자로 이산화하여 재료 특성과 골격 운동 모두에 대한 미분 가능성을 보장합니다. 또한, 우리는 높은 표현력을 유지하면서 학습 공간을 크게 줄이는 재료 프로토타입을 도입합니다. 우리의 프레임워크를 평가하기 위해, 우리는 Objaverse, The Amazing Animals Zoo, 그리고 MixaMo의 메쉬를 사용하여 다양한 객체 카테고리와 모션 패턴을 포함하는 포괄적인 합성 데이터셋을 구축했습니다. 우리의 방법은 전통적인 LBS 기반 접근법을 일관되게 능가하며, 더 현실적이고 물리적으로 타당한 결과를 생성합니다. 더 나아가, 우리는 포즈 전이 작업에서 우리의 프레임워크의 적용 가능성을 입증하며, 관절 객체 모델링에 대한 다용성을 강조합니다.
English
Skinning and rigging are fundamental components in animation, articulated
object reconstruction, motion transfer, and 4D generation. Existing approaches
predominantly rely on Linear Blend Skinning (LBS), due to its simplicity and
differentiability. However, LBS introduces artifacts such as volume loss and
unnatural deformations, and it fails to model elastic materials like soft
tissues, fur, and flexible appendages (e.g., elephant trunks, ears, and fatty
tissues). In this work, we propose PhysRig: a differentiable physics-based
skinning and rigging framework that overcomes these limitations by embedding
the rigid skeleton into a volumetric representation (e.g., a tetrahedral mesh),
which is simulated as a deformable soft-body structure driven by the animated
skeleton. Our method leverages continuum mechanics and discretizes the object
as particles embedded in an Eulerian background grid to ensure
differentiability with respect to both material properties and skeletal motion.
Additionally, we introduce material prototypes, significantly reducing the
learning space while maintaining high expressiveness. To evaluate our
framework, we construct a comprehensive synthetic dataset using meshes from
Objaverse, The Amazing Animals Zoo, and MixaMo, covering diverse object
categories and motion patterns. Our method consistently outperforms traditional
LBS-based approaches, generating more realistic and physically plausible
results. Furthermore, we demonstrate the applicability of our framework in the
pose transfer task highlighting its versatility for articulated object
modeling.