Jina-VLM: Um Pequeno Modelo de Visão e Linguagem Multilíngue
Jina-VLM: Small Multilingual Vision Language Model
December 3, 2025
Autores: Andreas Koukounas, Georgios Mastrapas, Florian Hönicke, Sedigheh Eslami, Guillaume Roncari, Scott Martens, Han Xiao
cs.AI
Resumo
Apresentamos o Jina-VLM, um modelo de visão e linguagem com 2,4 mil milhões de parâmetros que atinge o estado da arte em tarefas multilingues de resposta a perguntas visuais entre os VLMs abertos de escala comparável (2B). O modelo acopla um codificador visual SigLIP2 a uma espinha dorsal linguística Qwen3 através de um conector de *pooling* por atenção que permite o processamento eficiente de tokens em imagens de resolução arbitrária. Em *benchmarks* padrão de VQA e avaliações multilingues, o Jina-VLM supera modelos comparáveis, mantendo simultaneamente um desempenho competitivo em tarefas exclusivamente textuais.
English
We present Jina-VLM, a 2.4B parameter vision-language model that achieves state-of-the-art multilingual visual question answering among open 2B-scale VLMs. The model couples a SigLIP2 vision encoder with a Qwen3 language backbone through an attention-pooling connector that enables token-efficient processing of arbitrary-resolution images. Across standard VQA benchmarks and multilingual evaluations, Jina-VLM outperforms comparable models while preserving competitive text-only performance.