ChatPaper.aiChatPaper

Motion2Motion: Transferencia de Movimiento entre Topologías con Correspondencia Escasa

Motion2Motion: Cross-topology Motion Transfer with Sparse Correspondence

August 18, 2025
Autores: Ling-Hao Chen, Yuhong Zhang, Zixin Yin, Zhiyang Dou, Xin Chen, Jingbo Wang, Taku Komura, Lei Zhang
cs.AI

Resumen

Este trabajo estudia el desafío de transferir animaciones entre personajes cuyas topologías esqueléticas difieren sustancialmente. Si bien muchas técnicas han avanzado en la retargetización de movimientos durante décadas, la transferencia de movimientos entre topologías diversas sigue siendo un área poco explorada. El principal obstáculo radica en la inconsistencia topológica inherente entre los esqueletos de origen y destino, lo que dificulta el establecimiento de correspondencias óseas directas uno a uno. Además, la actual falta de conjuntos de datos de movimiento a gran escala que abarquen diferentes estructuras topológicas limita severamente el desarrollo de enfoques basados en datos. Para abordar estas limitaciones, presentamos Motion2Motion, un marco novedoso que no requiere entrenamiento. De manera simple pero efectiva, Motion2Motion funciona con solo uno o unos pocos movimientos de ejemplo en el esqueleto destino, accediendo a un conjunto reducido de correspondencias óseas entre los esqueletos de origen y destino. A través de evaluaciones cualitativas y cuantitativas exhaustivas, demostramos que Motion2Motion logra un rendimiento eficiente y confiable tanto en escenarios de transferencia entre esqueletos similares como en transferencias entre esqueletos de diferentes especies. La utilidad práctica de nuestro enfoque se evidencia aún más por su exitosa integración en aplicaciones e interfaces de usuario posteriores, destacando su potencial para aplicaciones industriales. El código y los datos están disponibles en https://lhchen.top/Motion2Motion.
English
This work studies the challenge of transfer animations between characters whose skeletal topologies differ substantially. While many techniques have advanced retargeting techniques in decades, transfer motions across diverse topologies remains less-explored. The primary obstacle lies in the inherent topological inconsistency between source and target skeletons, which restricts the establishment of straightforward one-to-one bone correspondences. Besides, the current lack of large-scale paired motion datasets spanning different topological structures severely constrains the development of data-driven approaches. To address these limitations, we introduce Motion2Motion, a novel, training-free framework. Simply yet effectively, Motion2Motion works with only one or a few example motions on the target skeleton, by accessing a sparse set of bone correspondences between the source and target skeletons. Through comprehensive qualitative and quantitative evaluations, we demonstrate that Motion2Motion achieves efficient and reliable performance in both similar-skeleton and cross-species skeleton transfer scenarios. The practical utility of our approach is further evidenced by its successful integration in downstream applications and user interfaces, highlighting its potential for industrial applications. Code and data are available at https://lhchen.top/Motion2Motion.
PDF21August 20, 2025