ChatPaper.aiChatPaper

Motion2Motion: 疎な対応関係を用いたクロストポロジー運動転送

Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence

August 18, 2025
著者: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang
cs.AI

要旨

本研究は、骨格構造が大きく異なるキャラクター間でのモーション転送の課題に取り組む。過去数十年にわたり、リターゲティング技術は多くの進展を遂げてきたが、多様な骨格構造間でのモーション転送は未だ十分に探求されていない。主な障壁は、ソースとターゲットの骨格間の本質的なトポロジーの不一致にあり、これが一対一の骨対応関係の確立を制限している。さらに、異なるトポロジー構造にまたがる大規模なペアワイズモーションデータセットの現状の欠如は、データ駆動型アプローチの発展を大きく制約している。これらの制約を解決するため、我々はMotion2Motionという新しいトレーニング不要のフレームワークを提案する。Motion2Motionは、ターゲット骨格における1つまたは少数のモーション例のみを使用し、ソースとターゲット骨格間の疎な骨対応関係にアクセスすることで、シンプルかつ効果的に動作する。包括的な定性的・定量的評価を通じて、Motion2Motionが類似骨格間および種間骨格転送シナリオの両方において、効率的で信頼性の高い性能を達成することを実証する。本アプローチの実用性は、下流アプリケーションやユーザーインターフェースへの成功した統合によってさらに裏付けられ、産業応用における潜在的可能性が強調されている。コードとデータはhttps://lhchen.top/Motion2Motionで公開されている。
English
This work studies the challenge of transfer animations between characters whose skeletal topologies differ substantially. While many techniques have advanced retargeting techniques in decades, transfer motions across diverse topologies remains less-explored. The primary obstacle lies in the inherent topological inconsistency between source and target skeletons, which restricts the establishment of straightforward one-to-one bone correspondences. Besides, the current lack of large-scale paired motion datasets spanning different topological structures severely constrains the development of data-driven approaches. To address these limitations, we introduce Motion2Motion, a novel, training-free framework. Simply yet effectively, Motion2Motion works with only one or a few example motions on the target skeleton, by accessing a sparse set of bone correspondences between the source and target skeletons. Through comprehensive qualitative and quantitative evaluations, we demonstrate that Motion2Motion achieves efficient and reliable performance in both similar-skeleton and cross-species skeleton transfer scenarios. The practical utility of our approach is further evidenced by its successful integration in downstream applications and user interfaces, highlighting its potential for industrial applications. Code and data are available at https://lhchen.top/Motion2Motion.
PDF21August 20, 2025