ChatPaper.aiChatPaper

Motion2Motion: Cross-topologie Bewegingsoverdracht met Sparse Correspondentie

Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence

August 18, 2025
Auteurs: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang
cs.AI

Samenvatting

Dit werk onderzoekt de uitdaging van het overzetten van animaties tussen karakters wiens skeletale topologieën aanzienlijk verschillen. Hoewel veel technieken in decennia tijd het retargeten hebben verbeterd, blijft het overzetten van bewegingen tussen diverse topologieën minder onderzocht. Het belangrijkste obstakel ligt in de inherente topologische inconsistentie tussen bron- en doelskeletten, wat de vaststelling van rechtstreekse één-op-één botcorrespondenties beperkt. Daarnaast beperkt het huidige gebrek aan grootschalige gepaarde bewegingsdatasets die verschillende topologische structuren omvatten, de ontwikkeling van data-gedreven benaderingen ernstig. Om deze beperkingen aan te pakken, introduceren we Motion2Motion, een nieuw, trainingsvrij raamwerk. Eenvoudig maar effectief werkt Motion2Motion met slechts één of enkele voorbeeldbewegingen op het doelskelet, door toegang te krijgen tot een beperkte set botcorrespondenties tussen de bron- en doelskeletten. Door uitgebreide kwalitatieve en kwantitatieve evaluaties tonen we aan dat Motion2Motion efficiënte en betrouwbare prestaties bereikt in zowel gelijksoortige-skelet- als kruis-soortenskelet-overzetscenario's. De praktische bruikbaarheid van onze aanpak wordt verder onderstreept door de succesvolle integratie in downstream toepassingen en gebruikersinterfaces, wat het potentieel voor industriële toepassingen benadrukt. Code en data zijn beschikbaar op https://lhchen.top/Motion2Motion.
English
This work studies the challenge of transfer animations between characters whose skeletal topologies differ substantially. While many techniques have advanced retargeting techniques in decades, transfer motions across diverse topologies remains less-explored. The primary obstacle lies in the inherent topological inconsistency between source and target skeletons, which restricts the establishment of straightforward one-to-one bone correspondences. Besides, the current lack of large-scale paired motion datasets spanning different topological structures severely constrains the development of data-driven approaches. To address these limitations, we introduce Motion2Motion, a novel, training-free framework. Simply yet effectively, Motion2Motion works with only one or a few example motions on the target skeleton, by accessing a sparse set of bone correspondences between the source and target skeletons. Through comprehensive qualitative and quantitative evaluations, we demonstrate that Motion2Motion achieves efficient and reliable performance in both similar-skeleton and cross-species skeleton transfer scenarios. The practical utility of our approach is further evidenced by its successful integration in downstream applications and user interfaces, highlighting its potential for industrial applications. Code and data are available at https://lhchen.top/Motion2Motion.
PDF42August 20, 2025