ChatPaper.aiChatPaper

MoRL: Raciocínio Reforçado para Compreensão e Geração Unificada de Movimento

MoRL: Reinforced Reasoning for Unified Motion Understanding and Generation

February 16, 2026
Autores: Hongpeng Wang, Zeyu Zhang, Wenhao Li, Hao Tang
cs.AI

Resumo

A compreensão e geração de movimento humano são cruciais para a visão computacional e a robótica, mas permanecem limitadas em capacidade de raciocínio e planeamento em tempo de teste. Propomos o MoRL, um modelo de movimento multimodal unificado treinado com afinação supervisionada e aprendizagem por reforço com recompensas verificáveis. O nosso desenho de recompensa específico por tarefa combina alinhamento semântico e coerência de raciocínio para a compreensão, com plausibilidade física e consistência texto-movimento para a geração, melhorando tanto o raciocínio lógico como o realismo perceptual. Para melhorar ainda mais a inferência, introduzimos a Cadeia-de-Movimento (CoM), um método de raciocínio em tempo de teste que permite um planeamento e reflexão passo a passo. Também construímos dois conjuntos de dados CoT de grande escala, MoUnd-CoT-140K e MoGen-CoT-140K, para alinhar sequências de movimento com traços de raciocínio e descrições de ação. Experiências no HumanML3D e KIT-ML mostram que o MoRL alcança ganhos significativos face aos métodos state-of-the-art. Código: https://github.com/AIGeeksGroup/MoRL. Website: https://aigeeksgroup.github.io/MoRL.
English
Human motion understanding and generation are crucial for vision and robotics but remain limited in reasoning capability and test-time planning. We propose MoRL, a unified multimodal motion model trained with supervised fine-tuning and reinforcement learning with verifiable rewards. Our task-specific reward design combines semantic alignment and reasoning coherence for understanding with physical plausibility and text-motion consistency for generation, improving both logical reasoning and perceptual realism. To further enhance inference, we introduce Chain-of-Motion (CoM), a test-time reasoning method that enables step-by-step planning and reflection. We also construct two large-scale CoT datasets, MoUnd-CoT-140K and MoGen-CoT-140K, to align motion sequences with reasoning traces and action descriptions. Experiments on HumanML3D and KIT-ML show that MoRL achieves significant gains over state-of-the-art baselines. Code: https://github.com/AIGeeksGroup/MoRL. Website: https://aigeeksgroup.github.io/MoRL.
PDF32March 29, 2026