ChatPaper.aiChatPaper

AndesVL Rapporto Tecnico: Un Modello Linguistico Multimodale di Grande Scala Efficiente per Dispositivi Mobili

AndesVL Technical Report: An Efficient Mobile-side Multimodal Large Language Model

October 13, 2025
Autori: Zhiwei Jin, Xiaohui Song, Nan Wang, Yafei Liu, Chao Li, Xin Li, Ruichen Wang, Zhihao Li, Qi Qi, Long Cheng, Dongze Hao, Quanlong Zheng, Yanhao Zhang, Haobo Ji, Jian Ma, Zhitong Zheng, Zhenyi Lin, Haolin Deng, Xin Zou, Xiaojie Yin, Ruilin Wang, Liankai Cai, Haijing Liu, Yuqing Qiu, Ke Chen, Zixian Li, Chi Xie, Huafei Li, Chenxing Li, Chuangchuang Wang, Kai Tang, Zhiguang Zhu, Kai Tang, Wenmei Gao, Rui Wang, Jun Wu, Chao Liu, Qin Xie, Chen Chen, Haonan Lu
cs.AI

Abstract

Negli ultimi anni, mentre i modelli MLLM basati su cloud come QwenVL, InternVL, GPT-4o, Gemini e Claude Sonnet hanno dimostrato prestazioni eccezionali con dimensioni di modello enormi che raggiungono centinaia di miliardi di parametri, superano significativamente i limiti di memoria, consumo energetico e capacità di calcolo dei dispositivi edge come i telefoni cellulari. Questo articolo introduce AndesVL, una suite di MLLM lato mobile con parametri che vanno da 0,6B a 4B, basati sull'LLM Qwen3 e su vari encoder visivi. Descriviamo in modo completo le architetture del modello, la pipeline di addestramento e i dati di addestramento di AndesVL, che raggiunge prestazioni di primo livello in un'ampia gamma di benchmark open-source, inclusi campi come la comprensione di immagini ricche di testo, il ragionamento e la matematica, la comprensione di più immagini, la VQA generale, la mitigazione delle allucinazioni, la comprensione multilingue e i task relativi alle GUI, rispetto ai modelli all'avanguardia di scala simile. Inoltre, introduciamo un approccio 1+N LoRA.
English
In recent years, while cloud-based MLLMs such as QwenVL, InternVL, GPT-4o, Gemini, and Claude Sonnet have demonstrated outstanding performance with enormous model sizes reaching hundreds of billions of parameters, they significantly surpass the limitations in memory, power consumption, and computing capacity of edge devices such as mobile phones. This paper introduces AndesVL, a suite of mobile-side MLLMs with 0.6B to 4B parameters based on Qwen3's LLM and various visual encoders. We comprehensively outline the model architectures, training pipeline, and training data of AndesVL, which achieves first-tier performance across a wide range of open-source benchmarks, including fields such as text-rich image understanding, reasoning and math, multi-image comprehension, general VQA, hallucination mitigation, multilingual understanding, and GUI-related tasks when compared with state-of-the-art models of a similar scale. Furthermore, we introduce a 1+N LoR
PDF32October 14, 2025