Informe Técnico de AndesVL: Un Modelo de Lenguaje Multimodal Grande Eficiente para Dispositivos Móviles
AndesVL Technical Report: An Efficient Mobile-side Multimodal Large Language Model
October 13, 2025
Autores: Zhiwei Jin, Xiaohui Song, Nan Wang, Yafei Liu, Chao Li, Xin Li, Ruichen Wang, Zhihao Li, Qi Qi, Long Cheng, Dongze Hao, Quanlong Zheng, Yanhao Zhang, Haobo Ji, Jian Ma, Zhitong Zheng, Zhenyi Lin, Haolin Deng, Xin Zou, Xiaojie Yin, Ruilin Wang, Liankai Cai, Haijing Liu, Yuqing Qiu, Ke Chen, Zixian Li, Chi Xie, Huafei Li, Chenxing Li, Chuangchuang Wang, Kai Tang, Zhiguang Zhu, Kai Tang, Wenmei Gao, Rui Wang, Jun Wu, Chao Liu, Qin Xie, Chen Chen, Haonan Lu
cs.AI
Resumen
En los últimos años, mientras que los MLLM basados en la nube, como QwenVL, InternVL, GPT-4o, Gemini y Claude Sonnet, han demostrado un rendimiento excepcional con tamaños de modelo enormes que alcanzan cientos de miles de millones de parámetros, superan significativamente las limitaciones de memoria, consumo de energía y capacidad de cómputo de dispositivos de borde como teléfonos móviles. Este artículo presenta AndesVL, un conjunto de MLLM para dispositivos móviles con parámetros que van desde 0.6B hasta 4B, basados en el LLM Qwen3 y varios codificadores visuales. Describimos de manera exhaustiva las arquitecturas del modelo, el pipeline de entrenamiento y los datos de entrenamiento de AndesVL, que logra un rendimiento de primer nivel en una amplia gama de benchmarks de código abierto, incluyendo campos como la comprensión de imágenes con texto, razonamiento y matemáticas, comprensión de múltiples imágenes, VQA general, mitigación de alucinaciones, comprensión multilingüe y tareas relacionadas con GUI, en comparación con modelos de última generación de escala similar. Además, presentamos un enfoque de 1+N LoR.
English
In recent years, while cloud-based MLLMs such as QwenVL, InternVL, GPT-4o,
Gemini, and Claude Sonnet have demonstrated outstanding performance with
enormous model sizes reaching hundreds of billions of parameters, they
significantly surpass the limitations in memory, power consumption, and
computing capacity of edge devices such as mobile phones. This paper introduces
AndesVL, a suite of mobile-side MLLMs with 0.6B to 4B parameters based on
Qwen3's LLM and various visual encoders. We comprehensively outline the model
architectures, training pipeline, and training data of AndesVL, which achieves
first-tier performance across a wide range of open-source benchmarks, including
fields such as text-rich image understanding, reasoning and math, multi-image
comprehension, general VQA, hallucination mitigation, multilingual
understanding, and GUI-related tasks when compared with state-of-the-art models
of a similar scale. Furthermore, we introduce a 1+N LoR