ChatPaper.aiChatPaper

Embodied-R1: Усиленное воплощенное рассуждение для общего роботизированного манипулирования

Embodied-R1: Reinforced Embodied Reasoning for General Robotic Manipulation

August 19, 2025
Авторы: Yifu Yuan, Haiqin Cui, Yaoting Huang, Yibin Chen, Fei Ni, Zibin Dong, Pengyi Li, Yan Zheng, Jianye Hao
cs.AI

Аннотация

Обобщение в воплощённом ИИ ограничено "разрывом между восприятием и действием", который возникает из-за недостатка данных и неоднородности воплощений. Чтобы решить эту проблему, мы предлагаем "указание" как унифицированное, независимое от воплощения промежуточное представление, определяя четыре ключевые способности воплощённого указания, которые связывают высокоуровневое понимание визуально-языковых данных с низкоуровневыми примитивами действий. Мы представляем Embodied-R1, 3B Vision-Language Model (VLM), специально разработанную для воплощённого рассуждения и указания. Мы используем широкий спектр наборов данных для воплощённого и общего визуального рассуждения, чтобы создать крупномасштабный набор данных Embodied-Points-200K, который поддерживает ключевые способности воплощённого указания. Затем мы обучаем Embodied-R1 с использованием двухэтапного учебного плана Reinforced Fine-tuning (RFT) с специализированным многозадачным дизайном вознаграждения. Embodied-R1 достигает наилучших результатов на 11 бенчмарках для воплощённого пространственного анализа и указания. Важно отметить, что модель демонстрирует устойчивое обобщение с нулевым обучением, достигая успешности 56,2% в среде SIMPLEREnv и 87,5% на 8 реальных задачах XArm без какого-либо специфического для задачи тонкого настройки, что представляет собой улучшение на 62% по сравнению с сильными базовыми моделями. Кроме того, модель проявляет высокую устойчивость к различным визуальным помехам. Наша работа показывает, что представление, ориентированное на указание, в сочетании с парадигмой обучения RFT, предлагает эффективный и обобщаемый путь для преодоления разрыва между восприятием и действием в робототехнике.
English
Generalization in embodied AI is hindered by the "seeing-to-doing gap," which stems from data scarcity and embodiment heterogeneity. To address this, we pioneer "pointing" as a unified, embodiment-agnostic intermediate representation, defining four core embodied pointing abilities that bridge high-level vision-language comprehension with low-level action primitives. We introduce Embodied-R1, a 3B Vision-Language Model (VLM) specifically designed for embodied reasoning and pointing. We use a wide range of embodied and general visual reasoning datasets as sources to construct a large-scale dataset, Embodied-Points-200K, which supports key embodied pointing capabilities. We then train Embodied-R1 using a two-stage Reinforced Fine-tuning (RFT) curriculum with a specialized multi-task reward design. Embodied-R1 achieves state-of-the-art performance on 11 embodied spatial and pointing benchmarks. Critically, it demonstrates robust zero-shot generalization by achieving a 56.2% success rate in the SIMPLEREnv and 87.5% across 8 real-world XArm tasks without any task-specific fine-tuning, representing a 62% improvement over strong baselines. Furthermore, the model exhibits high robustness against diverse visual disturbances. Our work shows that a pointing-centric representation, combined with an RFT training paradigm, offers an effective and generalizable pathway to closing the perception-action gap in robotics.
PDF91August 20, 2025