MoRL: Усиленное логическое рассуждение для единого понимания и генерации движения
MoRL: Reinforced Reasoning for Unified Motion Understanding and Generation
February 16, 2026
Авторы: Hongpeng Wang, Zeyu Zhang, Wenhao Li, Hao Tang
cs.AI
Аннотация
Понимание и генерация движений человека являются ключевыми задачами для компьютерного зрения и робототехники, однако существующие методы остаются ограниченными в плане способности к логическим рассуждениям и планированию в режиме тестирования. Мы предлагаем MoRL, унифицированную мультимодальную модель движений, обученную с помощью контролируемого тонкого настроения и обучения с подкреплением на основе верифицируемых функций вознаграждения. Наша специализированная система вознаграждений сочетает семантическое соответствие и когерентность рассуждений для задач понимания с физической правдоподобностью и согласованностью текста и движений для задач генерации, что улучшает как логические рассуждения, так и перцептивную реалистичность. Для дальнейшего улучшения вывода мы представляем Chain-of-Motion (CoM), метод рассуждений в режиме тестирования, который позволяет осуществлять пошаговое планирование и рефлексию. Мы также создали два крупномасштабных набора данных CoT: MoUnd-CoT-140K и MoGen-CoT-140K, для сопоставления последовательностей движений с цепочками рассуждений и описаний действий. Эксперименты на наборах данных HumanML3D и KIT-ML показывают, что MoRL достигает значительного превосходства над современными базовыми методами. Код: https://github.com/AIGeeksGroup/MoRL. Сайт: https://aigeeksgroup.github.io/MoRL.
English
Human motion understanding and generation are crucial for vision and robotics but remain limited in reasoning capability and test-time planning. We propose MoRL, a unified multimodal motion model trained with supervised fine-tuning and reinforcement learning with verifiable rewards. Our task-specific reward design combines semantic alignment and reasoning coherence for understanding with physical plausibility and text-motion consistency for generation, improving both logical reasoning and perceptual realism. To further enhance inference, we introduce Chain-of-Motion (CoM), a test-time reasoning method that enables step-by-step planning and reflection. We also construct two large-scale CoT datasets, MoUnd-CoT-140K and MoGen-CoT-140K, to align motion sequences with reasoning traces and action descriptions. Experiments on HumanML3D and KIT-ML show that MoRL achieves significant gains over state-of-the-art baselines. Code: https://github.com/AIGeeksGroup/MoRL. Website: https://aigeeksgroup.github.io/MoRL.