MiMo-Embodied: Технический отчет по фундаментальной модели X-Embodied
MiMo-Embodied: X-Embodied Foundation Model Technical Report
November 20, 2025
Авторы: Xiaoshuai Hao, Lei Zhou, Zhijian Huang, Zhiwen Hou, Yingbo Tang, Lingfeng Zhang, Guang Li, Zheng Lu, Shuhuai Ren, Xianhui Meng, Yuchen Zhang, Jing Wu, Jinghui Lu, Chenxu Dang, Jiayi Guan, Jianhua Wu, Zhiyi Hou, Hanbing Li, Shumeng Xia, Mingliang Zhou, Yinan Zheng, Zihao Yue, Shuhao Gu, Hao Tian, Yuannan Shen, Jianwei Cui, Wen Zhang, Shaoqing Xu, Bing Wang, Haiyang Sun, Zeyu Zhu, Yuncheng Jiang, Zibin Guo, Chuhong Gong, Chaofan Zhang, Wenbo Ding, Kun Ma, Guang Chen, Rui Cai, Diyun Xiang, Heng Qu, Fuli Luo, Hangjun Ye, Long Chen
cs.AI
Аннотация
Мы представляем MiMo-Embodied — первую кросстемпоральную базовую модель с открытым исходным кодом, которая успешно интегрирует и демонстрирует наилучшие результаты как в области автономного вождения, так и в воплощённом искусственном интеллекте. MiMo-Embodied устанавливает новые рекорды на 17 тестах воплощённого ИИ по планированию задач, предсказанию аффордансов и пространственному пониманию, одновременно превосходя конкурентов на 12 тестах автономного вождения по восприятию окружения, прогнозированию состояния и планированию траектории. При решении этих задач модель значительно опережает существующие открытые, проприетарные и специализированные базовые решения. Наши результаты показывают, что благодаря многоэтапному обучению, тщательно отобранным данным и тонкой настройке методом цепочек рассуждений и обучения с подкреплением, эти две области демонстрируют сильный позитивный перенос и взаимно усиливают друг друга. Мы предоставляем детальный анализ архитектуры модели и методик обучения для содействия дальнейшим исследованиям. Код и модели доступны по адресу https://github.com/XiaomiMiMo/MiMo-Embodied.
English
We open-source MiMo-Embodied, the first cross-embodied foundation model to successfully integrate and achieve state-of-the-art performance in both Autonomous Driving and Embodied AI. MiMo-Embodied sets new records across 17 embodied AI benchmarks in Task Planning, Affordance Prediction and Spatial Understanding, while also excelling in 12 autonomous driving benchmarks across Environmental Perception, Status Prediction, and Driving Planning. Across these tasks, MiMo-Embodied significantly outperforms existing open-source, closed-source, and specialized baselines. Our results indicate that through multi-stage learning, curated data construction, and CoT/RL fine-tuning, these two domains exhibit strong positive transfer and mutually reinforce one another. We provide a detailed analysis of our model design and training methodologies to facilitate further research. Code and models are available at https://github.com/XiaomiMiMo/MiMo-Embodied.