ChatPaper.aiChatPaper

Motion2Motion : Transfert de mouvement inter-topologie avec correspondance parcimonieuse

Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence

August 18, 2025
papers.authors: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang
cs.AI

papers.abstract

Ce travail étudie le défi de transférer des animations entre des personnages dont les topologies squelettiques diffèrent substantiellement. Bien que de nombreuses techniques aient fait progresser les méthodes de retargeting au fil des décennies, le transfert de mouvements entre des topologies variées reste peu exploré. Le principal obstacle réside dans l'incohérence topologique inhérente entre les squelettes source et cible, ce qui limite l'établissement de correspondances osseuses directes de un à un. De plus, l'absence actuelle de jeux de données de mouvements appariés à grande échelle couvrant différentes structures topologiques entrave considérablement le développement d'approches basées sur les données. Pour pallier ces limitations, nous introduisons Motion2Motion, un nouveau cadre de travail ne nécessitant pas d'entraînement. Simple mais efficace, Motion2Motion fonctionne avec seulement un ou quelques exemples de mouvements sur le squelette cible, en accédant à un ensemble restreint de correspondances osseuses entre les squelettes source et cible. Grâce à des évaluations qualitatives et quantitatives approfondies, nous démontrons que Motion2Motion atteint une performance efficace et fiable dans des scénarios de transfert entre squelettes similaires et entre espèces différentes. L'utilité pratique de notre approche est en outre attestée par son intégration réussie dans des applications et interfaces utilisateur en aval, soulignant son potentiel pour des applications industrielles. Le code et les données sont disponibles à l'adresse https://lhchen.top/Motion2Motion.
English
This work studies the challenge of transfer animations between characters whose skeletal topologies differ substantially. While many techniques have advanced retargeting techniques in decades, transfer motions across diverse topologies remains less-explored. The primary obstacle lies in the inherent topological inconsistency between source and target skeletons, which restricts the establishment of straightforward one-to-one bone correspondences. Besides, the current lack of large-scale paired motion datasets spanning different topological structures severely constrains the development of data-driven approaches. To address these limitations, we introduce Motion2Motion, a novel, training-free framework. Simply yet effectively, Motion2Motion works with only one or a few example motions on the target skeleton, by accessing a sparse set of bone correspondences between the source and target skeletons. Through comprehensive qualitative and quantitative evaluations, we demonstrate that Motion2Motion achieves efficient and reliable performance in both similar-skeleton and cross-species skeleton transfer scenarios. The practical utility of our approach is further evidenced by its successful integration in downstream applications and user interfaces, highlighting its potential for industrial applications. Code and data are available at https://lhchen.top/Motion2Motion.
PDF21August 20, 2025