ChatPaper.aiChatPaper

Motion2Motion: Передача движений между различными топологиями с использованием разреженного соответствия

Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence

August 18, 2025
Авторы: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang
cs.AI

Аннотация

Данная работа исследует задачу переноса анимаций между персонажами, скелетные топологии которых существенно различаются. Хотя за последние десятилетия многие методы продвинули технологии ретаргетинга, перенос движений между различными топологиями остается малоизученным. Основное препятствие заключается в изначальной топологической несовместимости между исходным и целевым скелетами, что ограничивает возможность установления прямых однозначных соответствий между костями. Кроме того, текущее отсутствие крупномасштабных парных наборов данных о движениях, охватывающих различные топологические структуры, серьезно ограничивает развитие подходов, основанных на данных. Для преодоления этих ограничений мы представляем Motion2Motion — новый, не требующий обучения фреймворк. Просто, но эффективно, Motion2Motion работает всего с одним или несколькими примерами движений на целевом скелете, используя разреженный набор соответствий между костями исходного и целевого скелетов. Благодаря всесторонним качественным и количественным оценкам мы демонстрируем, что Motion2Motion достигает эффективной и надежной производительности как в сценариях переноса между схожими скелетами, так и в межвидовых сценариях. Практическая полезность нашего подхода дополнительно подтверждается его успешной интеграцией в приложения и пользовательские интерфейсы, подчеркивая его потенциал для промышленного применения. Код и данные доступны по адресу https://lhchen.top/Motion2Motion.
English
This work studies the challenge of transfer animations between characters whose skeletal topologies differ substantially. While many techniques have advanced retargeting techniques in decades, transfer motions across diverse topologies remains less-explored. The primary obstacle lies in the inherent topological inconsistency between source and target skeletons, which restricts the establishment of straightforward one-to-one bone correspondences. Besides, the current lack of large-scale paired motion datasets spanning different topological structures severely constrains the development of data-driven approaches. To address these limitations, we introduce Motion2Motion, a novel, training-free framework. Simply yet effectively, Motion2Motion works with only one or a few example motions on the target skeleton, by accessing a sparse set of bone correspondences between the source and target skeletons. Through comprehensive qualitative and quantitative evaluations, we demonstrate that Motion2Motion achieves efficient and reliable performance in both similar-skeleton and cross-species skeleton transfer scenarios. The practical utility of our approach is further evidenced by its successful integration in downstream applications and user interfaces, highlighting its potential for industrial applications. Code and data are available at https://lhchen.top/Motion2Motion.
PDF21August 20, 2025