ChatPaper.aiChatPaper

MiMo-VL Technischer Bericht

MiMo-VL Technical Report

June 4, 2025
Autoren: Xiaomi LLM-Core Team, Zihao Yue, Zhenru Lin, Yifan Song, Weikun Wang, Shuhuai Ren, Shuhao Gu, Shicheng Li, Peidian Li, Liang Zhao, Lei Li, Kainan Bao, Hao Tian, Hailin Zhang, Gang Wang, Dawei Zhu, Cici, Chenhong He, Bowen Ye, Bowen Shen, Zihan Zhang, Zihan Jiang, Zhixian Zheng, Zhichao Song, Zhenbo Luo, Yue Yu, Yudong Wang, Yuanyuan Tian, Yu Tu, Yihan Yan, Yi Huang, Xu Wang, Xinzhe Xu, Xingchen Song, Xing Zhang, Xing Yong, Xin Zhang, Xiangwei Deng, Wenyu Yang, Wenhan Ma, Weiwei Lv, Weiji Zhuang, Wei Liu, Sirui Deng, Shuo Liu, Shimao Chen, Shihua Yu, Shaohui Liu, Shande Wang, Rui Ma, Qiantong Wang, Peng Wang, Nuo Chen, Menghang Zhu, Kangyang Zhou, Kang Zhou, Kai Fang, Jun Shi, Jinhao Dong, Jiebao Xiao, Jiaming Xu, Huaqiu Liu, Hongshen Xu, Heng Qu, Haochen Zhao, Hanglong Lv, Guoan Wang, Duo Zhang, Dong Zhang, Di Zhang, Chong Ma, Chang Liu, Can Cai, Bingquan Xia
cs.AI

Zusammenfassung

Wir veröffentlichen MiMo-VL-7B-SFT und MiMo-VL-7B-RL als Open Source, zwei leistungsstarke Vision-Language-Modelle, die state-of-the-art Leistung sowohl im allgemeinen visuellen Verständnis als auch im multimodalen Reasoning bieten. MiMo-VL-7B-RL übertrifft Qwen2.5-VL-7B in 35 von 40 evaluierten Aufgaben und erreicht 59,4 Punkte auf dem OlympiadBench, womit es Modelle mit bis zu 78B Parametern übertrifft. Für GUI-Grounding-Anwendungen setzt es mit 56,1 Punkten auf OSWorld-G einen neuen Standard und übertrifft sogar spezialisierte Modelle wie UI-TARS. Unser Training kombiniert ein vierstufiges Pre-Training (2,4 Billionen Tokens) mit Mixed On-policy Reinforcement Learning (MORL), das diverse Belohnungssignale integriert. Wir identifizieren die Bedeutung der Einbindung hochwertiger Reasoning-Daten mit langen Chain-of-Thought in die Pre-Training-Phasen sowie die Vorteile von gemischtem RL trotz der Herausforderungen bei der gleichzeitigen Optimierung über mehrere Domänen hinweg. Zudem tragen wir mit einem umfassenden Evaluationssuite, die über 50 Aufgaben abdeckt, zur Reproduzierbarkeit und Weiterentwicklung des Feldes bei. Die Modell-Checkpoints und die vollständige Evaluationssuite sind unter https://github.com/XiaomiMiMo/MiMo-VL verfügbar.
English
We open-source MiMo-VL-7B-SFT and MiMo-VL-7B-RL, two powerful vision-language models delivering state-of-the-art performance in both general visual understanding and multimodal reasoning. MiMo-VL-7B-RL outperforms Qwen2.5-VL-7B on 35 out of 40 evaluated tasks, and scores 59.4 on OlympiadBench, surpassing models with up to 78B parameters. For GUI grounding applications, it sets a new standard with 56.1 on OSWorld-G, even outperforming specialized models such as UI-TARS. Our training combines four-stage pre-training (2.4 trillion tokens) with Mixed On-policy Reinforcement Learning (MORL) integrating diverse reward signals. We identify the importance of incorporating high-quality reasoning data with long Chain-of-Thought into pre-training stages, and the benefits of mixed RL despite challenges in simultaneous multi-domain optimization. We also contribute a comprehensive evaluation suite covering 50+ tasks to promote reproducibility and advance the field. The model checkpoints and full evaluation suite are available at https://github.com/XiaomiMiMo/MiMo-VL.
PDF642June 5, 2025