ChatPaper.aiChatPaper

Motion2Motion: Trasferimento di Movimento tra Topologie con Corrispondenza Sparsa

Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence

August 18, 2025
Autori: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang
cs.AI

Abstract

Questo lavoro affronta la sfida del trasferimento di animazioni tra personaggi le cui topologie scheletriche differiscono sostanzialmente. Sebbene molte tecniche abbiano fatto progredire i metodi di retargeting nel corso dei decenni, il trasferimento di movimenti tra topologie diverse rimane poco esplorato. L'ostacolo principale risiede nell'inconsistenza topologica intrinseca tra gli scheletri di origine e di destinazione, che limita l'instaurazione di corrispondenze osso-a-osso dirette. Inoltre, l'attuale mancanza di dataset di movimenti accoppiati su larga scala che coprono diverse strutture topologiche limita fortemente lo sviluppo di approcci basati sui dati. Per affrontare queste limitazioni, introduciamo Motion2Motion, un nuovo framework che non richiede addestramento. In modo semplice ma efficace, Motion2Motion funziona con uno o pochi movimenti di esempio sullo scheletro di destinazione, accedendo a un insieme sparso di corrispondenze ossee tra gli scheletri di origine e di destinazione. Attraverso valutazioni qualitative e quantitative complete, dimostriamo che Motion2Motion raggiunge prestazioni efficienti e affidabili sia in scenari di trasferimento tra scheletri simili che tra scheletri di specie diverse. L'utilità pratica del nostro approccio è ulteriormente evidenziata dalla sua integrazione riuscita in applicazioni downstream e interfacce utente, sottolineando il suo potenziale per applicazioni industriali. Codice e dati sono disponibili all'indirizzo https://lhchen.top/Motion2Motion.
English
This work studies the challenge of transfer animations between characters whose skeletal topologies differ substantially. While many techniques have advanced retargeting techniques in decades, transfer motions across diverse topologies remains less-explored. The primary obstacle lies in the inherent topological inconsistency between source and target skeletons, which restricts the establishment of straightforward one-to-one bone correspondences. Besides, the current lack of large-scale paired motion datasets spanning different topological structures severely constrains the development of data-driven approaches. To address these limitations, we introduce Motion2Motion, a novel, training-free framework. Simply yet effectively, Motion2Motion works with only one or a few example motions on the target skeleton, by accessing a sparse set of bone correspondences between the source and target skeletons. Through comprehensive qualitative and quantitative evaluations, we demonstrate that Motion2Motion achieves efficient and reliable performance in both similar-skeleton and cross-species skeleton transfer scenarios. The practical utility of our approach is further evidenced by its successful integration in downstream applications and user interfaces, highlighting its potential for industrial applications. Code and data are available at https://lhchen.top/Motion2Motion.
PDF42August 20, 2025