ChatPaper.aiChatPaper

Motion2Motion: Cross-Topologie-Bewegungsübertragung mit spärlicher Korrespondenz

Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence

August 18, 2025
papers.authors: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang
cs.AI

papers.abstract

Diese Arbeit untersucht die Herausforderung der Übertragung von Animationen zwischen Charakteren, deren Skeletttopologien erheblich voneinander abweichen. Während viele Techniken in den letzten Jahrzehnten Fortschritte bei Retargeting-Verfahren gemacht haben, bleibt die Übertragung von Bewegungen über verschiedene Topologien hinweg weniger erforscht. Das Hauptproblem liegt in der inhärenten topologischen Inkonsistenz zwischen Quell- und Ziel-Skeletten, die die Etablierung einfacher Eins-zu-eins-Korrespondenzen zwischen Knochen erschwert. Darüber hinaus behindert der derzeitige Mangel an groß angelegten, gepaarten Bewegungsdatensätzen, die verschiedene topologische Strukturen abdecken, die Entwicklung datengetriebener Ansätze erheblich. Um diese Einschränkungen zu überwinden, stellen wir Motion2Motion vor, ein neuartiges, trainingsfreies Framework. Einfach und doch effektiv arbeitet Motion2Motion mit nur einer oder wenigen Beispielbewegungen auf dem Ziel-Skelett, indem es auf eine spärliche Menge von Knochenkorrespondenzen zwischen den Quell- und Ziel-Skeletten zugreift. Durch umfassende qualitative und quantitative Bewertungen zeigen wir, dass Motion2Motion sowohl in Szenarien mit ähnlichen Skeletten als auch in Szenarien mit artübergreifenden Skeletten eine effiziente und zuverlässige Leistung erzielt. Der praktische Nutzen unseres Ansatzes wird weiter durch seine erfolgreiche Integration in nachgelagerte Anwendungen und Benutzeroberflächen belegt, was sein Potenzial für industrielle Anwendungen unterstreicht. Code und Daten sind verfügbar unter https://lhchen.top/Motion2Motion.
English
This work studies the challenge of transfer animations between characters whose skeletal topologies differ substantially. While many techniques have advanced retargeting techniques in decades, transfer motions across diverse topologies remains less-explored. The primary obstacle lies in the inherent topological inconsistency between source and target skeletons, which restricts the establishment of straightforward one-to-one bone correspondences. Besides, the current lack of large-scale paired motion datasets spanning different topological structures severely constrains the development of data-driven approaches. To address these limitations, we introduce Motion2Motion, a novel, training-free framework. Simply yet effectively, Motion2Motion works with only one or a few example motions on the target skeleton, by accessing a sparse set of bone correspondences between the source and target skeletons. Through comprehensive qualitative and quantitative evaluations, we demonstrate that Motion2Motion achieves efficient and reliable performance in both similar-skeleton and cross-species skeleton transfer scenarios. The practical utility of our approach is further evidenced by its successful integration in downstream applications and user interfaces, highlighting its potential for industrial applications. Code and data are available at https://lhchen.top/Motion2Motion.
PDF21August 20, 2025