ChatPaper.aiChatPaper

PhysRig: 물리 기반 스키닝 및 리깅 프레임워크를 통한 현실적인 관절형 객체 모델링

PhysRig: Differentiable Physics-Based Skinning and Rigging Framework for Realistic Articulated Object Modeling

June 26, 2025
저자: Hao Zhang, Haolan Xu, Chun Feng, Varun Jampani, Narendra Ahuja
cs.AI

초록

스키닝과 리깅은 애니메이션, 관절 객체 재구성, 모션 전이, 그리고 4D 생성에서 기본적인 구성 요소입니다. 기존의 접근법은 주로 선형 블렌드 스키닝(LBS)에 의존하는데, 이는 단순성과 미분 가능성 때문입니다. 그러나 LBS는 부피 손실과 비자연스러운 변형과 같은 아티팩트를 유발하며, 연성 조직, 털, 그리고 유연한 부속물(예: 코끼리 코, 귀, 지방 조직)과 같은 탄성 재료를 모델링하지 못합니다. 본 연구에서는 이러한 한계를 극복하기 위해 PhysRig를 제안합니다: PhysRig는 강체 골격을 체적 표현(예: 사면체 메쉬)에 내장하고, 이를 애니메이션된 골격에 의해 구동되는 변형 가능한 연체 구조로 시뮬레이션하는 미분 가능한 물리 기반 스키닝 및 리깅 프레임워크입니다. 우리의 방법은 연속체 역학을 활용하고 객체를 오일러 배경 그리드에 내장된 입자로 이산화하여 재료 특성과 골격 운동 모두에 대한 미분 가능성을 보장합니다. 또한, 우리는 높은 표현력을 유지하면서 학습 공간을 크게 줄이는 재료 프로토타입을 도입합니다. 우리의 프레임워크를 평가하기 위해, 우리는 Objaverse, The Amazing Animals Zoo, 그리고 MixaMo의 메쉬를 사용하여 다양한 객체 카테고리와 모션 패턴을 포함하는 포괄적인 합성 데이터셋을 구축했습니다. 우리의 방법은 전통적인 LBS 기반 접근법을 일관되게 능가하며, 더 현실적이고 물리적으로 타당한 결과를 생성합니다. 더 나아가, 우리는 포즈 전이 작업에서 우리의 프레임워크의 적용 가능성을 입증하며, 관절 객체 모델링에 대한 다용성을 강조합니다.
English
Skinning and rigging are fundamental components in animation, articulated object reconstruction, motion transfer, and 4D generation. Existing approaches predominantly rely on Linear Blend Skinning (LBS), due to its simplicity and differentiability. However, LBS introduces artifacts such as volume loss and unnatural deformations, and it fails to model elastic materials like soft tissues, fur, and flexible appendages (e.g., elephant trunks, ears, and fatty tissues). In this work, we propose PhysRig: a differentiable physics-based skinning and rigging framework that overcomes these limitations by embedding the rigid skeleton into a volumetric representation (e.g., a tetrahedral mesh), which is simulated as a deformable soft-body structure driven by the animated skeleton. Our method leverages continuum mechanics and discretizes the object as particles embedded in an Eulerian background grid to ensure differentiability with respect to both material properties and skeletal motion. Additionally, we introduce material prototypes, significantly reducing the learning space while maintaining high expressiveness. To evaluate our framework, we construct a comprehensive synthetic dataset using meshes from Objaverse, The Amazing Animals Zoo, and MixaMo, covering diverse object categories and motion patterns. Our method consistently outperforms traditional LBS-based approaches, generating more realistic and physically plausible results. Furthermore, we demonstrate the applicability of our framework in the pose transfer task highlighting its versatility for articulated object modeling.
PDF62June 27, 2025