Motion2Motion: 희소 대응을 활용한 크로스 토폴로지 모션 전이
Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence
August 18, 2025
저자: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang
cs.AI
초록
본 연구는 골격 구조가 크게 다른 캐릭터 간의 애니메이션 전달 문제를 다룹니다. 수십 년 동안 많은 기술들이 리타겟팅 기법을 발전시켜 왔지만, 다양한 토폴로지 간의 모션 전달은 여전히 덜 탐구된 분야입니다. 주요 장애물은 소스와 타겟 골격 간의 고유한 토폴로지 불일치에 있으며, 이는 직관적인 일대일 뼈 대응 관계 설정을 제한합니다. 또한, 서로 다른 토폴로지 구조를 아우르는 대규모 페어링된 모션 데이터셋의 부재는 데이터 기반 접근법의 개발을 심각하게 제약하고 있습니다. 이러한 한계를 해결하기 위해, 우리는 Motion2Motion이라는 새로운 훈련이 필요 없는 프레임워크를 소개합니다. Motion2Motion은 단순하면서도 효과적으로, 소스와 타겟 골격 간의 희소한 뼈 대응 관계에 접근하여 타겟 골격에서 하나 또는 몇 개의 예시 모션만으로 작동합니다. 포괄적인 정성적 및 정량적 평가를 통해, Motion2Motion이 유사 골격 및 종 간 골격 전달 시나리오에서 모두 효율적이고 신뢰할 수 있는 성능을 달성함을 입증합니다. 우리의 접근법의 실용적 유용성은 다운스트림 애플리케이션과 사용자 인터페이스에 성공적으로 통합된 사례를 통해 더욱 입증되며, 산업적 응용 가능성을 강조합니다. 코드와 데이터는 https://lhchen.top/Motion2Motion에서 확인할 수 있습니다.
English
This work studies the challenge of transfer animations between characters
whose skeletal topologies differ substantially. While many techniques have
advanced retargeting techniques in decades, transfer motions across diverse
topologies remains less-explored. The primary obstacle lies in the inherent
topological inconsistency between source and target skeletons, which restricts
the establishment of straightforward one-to-one bone correspondences. Besides,
the current lack of large-scale paired motion datasets spanning different
topological structures severely constrains the development of data-driven
approaches. To address these limitations, we introduce Motion2Motion, a novel,
training-free framework. Simply yet effectively, Motion2Motion works with only
one or a few example motions on the target skeleton, by accessing a sparse set
of bone correspondences between the source and target skeletons. Through
comprehensive qualitative and quantitative evaluations, we demonstrate that
Motion2Motion achieves efficient and reliable performance in both
similar-skeleton and cross-species skeleton transfer scenarios. The practical
utility of our approach is further evidenced by its successful integration in
downstream applications and user interfaces, highlighting its potential for
industrial applications. Code and data are available at
https://lhchen.top/Motion2Motion.