ChatPaper.aiChatPaper

PHUMA: 물리 기반 휴머노이드 보행 데이터셋

PHUMA: Physically-Grounded Humanoid Locomotion Dataset

October 30, 2025
저자: Kyungmin Lee, Sibeen Kim, Minho Park, Hyunseung Kim, Dongyoon Hwang, Hojoon Lee, Jaegul Choo
cs.AI

초록

모션 모방은 휴머노이드 로코모션에 유망한 접근법으로, 에이전트가 인간과 유사한 행동을 습득할 수 있게 합니다. 기존 방법은 일반적으로 AMASS와 같은 고품질 모션 캡처 데이터셋에 의존하지만, 이는 수가 부족하고 비용이 많이 들어 확장성과 다양성이 제한됩니다. 최근 연구에서는 Humanoid-X와 같이 대규모 인터넷 비디오를 변환하여 데이터 수집 규모를 확대하려는 시도가 이루어지고 있습니다. 그러나 이러한 방법들은 부유(foating), 관통(penetration), 발 미끄러짐(foot skating)과 같은 물리적 아티팩트를 종종 유발하여 안정적인 모방을 방해합니다. 이에 대응하여 우리는 대규모 인간 비디오를 활용하면서도 신중한 데이터 정제와 물리 법칙을 고려한 리타겟팅을 통해 물리적 아티팩트를 해결한 PHUMA(Physically-grounded HUMAnoid locomotion dataset)를 소개합니다. PHUMA는 관절 가동 범위를 준수하고 지면 접촉을 보장하며 발 미끄러짐을 제거하여 대규모이면서 물리적으로 신뢰할 수 있는 동작을 생성합니다. 우리는 PHUMA를 두 가지 조건에서 평가했습니다: (i) 자체 촬영한 테스트 비디오의 보지 못한 동작 모방 및 (ii) 골반만을 이용한 경로 추종. 두 경우 모두 PHUMA로 학습된 정책이 Humanoid-X와 AMASS를 능가하며 다양한 동작 모방에서 상당한 향상을 달성했습니다. 코드는 https://davian-robotics.github.io/PHUMA에서 확인할 수 있습니다.
English
Motion imitation is a promising approach for humanoid locomotion, enabling agents to acquire humanlike behaviors. Existing methods typically rely on high-quality motion capture datasets such as AMASS, but these are scarce and expensive, limiting scalability and diversity. Recent studies attempt to scale data collection by converting large-scale internet videos, exemplified by Humanoid-X. However, they often introduce physical artifacts such as floating, penetration, and foot skating, which hinder stable imitation. In response, we introduce PHUMA, a Physically-grounded HUMAnoid locomotion dataset that leverages human video at scale, while addressing physical artifacts through careful data curation and physics-constrained retargeting. PHUMA enforces joint limits, ensures ground contact, and eliminates foot skating, producing motions that are both large-scale and physically reliable. We evaluated PHUMA in two sets of conditions: (i) imitation of unseen motion from self-recorded test videos and (ii) path following with pelvis-only guidance. In both cases, PHUMA-trained policies outperform Humanoid-X and AMASS, achieving significant gains in imitating diverse motions. The code is available at https://davian-robotics.github.io/PHUMA.
PDF302January 19, 2026