ChatPaper.aiChatPaper

Rapport technique d'AndesVL : Un modèle de langage multimodal efficace pour appareils mobiles

AndesVL Technical Report: An Efficient Mobile-side Multimodal Large Language Model

October 13, 2025
papers.authors: Zhiwei Jin, Xiaohui Song, Nan Wang, Yafei Liu, Chao Li, Xin Li, Ruichen Wang, Zhihao Li, Qi Qi, Long Cheng, Dongze Hao, Quanlong Zheng, Yanhao Zhang, Haobo Ji, Jian Ma, Zhitong Zheng, Zhenyi Lin, Haolin Deng, Xin Zou, Xiaojie Yin, Ruilin Wang, Liankai Cai, Haijing Liu, Yuqing Qiu, Ke Chen, Zixian Li, Chi Xie, Huafei Li, Chenxing Li, Chuangchuang Wang, Kai Tang, Zhiguang Zhu, Kai Tang, Wenmei Gao, Rui Wang, Jun Wu, Chao Liu, Qin Xie, Chen Chen, Haonan Lu
cs.AI

papers.abstract

Ces dernières années, bien que les MLLM basés sur le cloud tels que QwenVL, InternVL, GPT-4o, Gemini et Claude Sonnet aient démontré des performances exceptionnelles avec des tailles de modèles atteignant des centaines de milliards de paramètres, ils dépassent largement les limitations en matière de mémoire, de consommation d'énergie et de capacité de calcul des appareils périphériques tels que les téléphones portables. Cet article présente AndesVL, une suite de MLLM côté mobile avec des paramètres allant de 0,6 à 4 milliards, basée sur le LLM Qwen3 et divers encodeurs visuels. Nous décrivons en détail les architectures de modèles, le pipeline d'entraînement et les données d'entraînement d'AndesVL, qui atteint des performances de premier plan sur un large éventail de benchmarks open-source, incluant des domaines tels que la compréhension d'images riches en texte, le raisonnement et les mathématiques, la compréhension multi-images, la VQA générale, la réduction des hallucinations, la compréhension multilingue et les tâches liées aux interfaces graphiques, comparé aux modèles de pointe de taille similaire. De plus, nous introduisons une approche 1+N LoRA.
English
In recent years, while cloud-based MLLMs such as QwenVL, InternVL, GPT-4o, Gemini, and Claude Sonnet have demonstrated outstanding performance with enormous model sizes reaching hundreds of billions of parameters, they significantly surpass the limitations in memory, power consumption, and computing capacity of edge devices such as mobile phones. This paper introduces AndesVL, a suite of mobile-side MLLMs with 0.6B to 4B parameters based on Qwen3's LLM and various visual encoders. We comprehensively outline the model architectures, training pipeline, and training data of AndesVL, which achieves first-tier performance across a wide range of open-source benchmarks, including fields such as text-rich image understanding, reasoning and math, multi-image comprehension, general VQA, hallucination mitigation, multilingual understanding, and GUI-related tasks when compared with state-of-the-art models of a similar scale. Furthermore, we introduce a 1+N LoR
PDF32October 14, 2025