ChatPaper.aiChatPaper

Jina-VLM: Klein meertalig visueel-taalmodel

Jina-VLM: Small Multilingual Vision Language Model

December 3, 2025
Auteurs: Andreas Koukounas, Georgios Mastrapas, Florian Hönicke, Sedigheh Eslami, Guillaume Roncari, Scott Martens, Han Xiao
cs.AI

Samenvatting

Wij presenteren Jina-VLM, een vision-language model met 2,4 miljard parameters dat state-of-the-art prestaties levert op het gebied van meertalige visuele vraagbeantwoording onder open VLMs van vergelijkbare schaal (circa 2B). Het model koppelt een SigLIP2 vision-encoder aan een Qwen3 language-backbone via een *attention-pooling* connector, die token-efficiënte verwerking van afbeeldingen met een willekeurige resolutie mogelijk maakt. Op standaard VQA-benchmarks en meertalige evaluaties overtreft Jina-VLM vergelijkbare modellen, terwijl het tegelijkertijd competitieve prestaties behoudt voor uitsluitend tekstuele taken.
English
We present Jina-VLM, a 2.4B parameter vision-language model that achieves state-of-the-art multilingual visual question answering among open 2B-scale VLMs. The model couples a SigLIP2 vision encoder with a Qwen3 language backbone through an attention-pooling connector that enables token-efficient processing of arbitrary-resolution images. Across standard VQA benchmarks and multilingual evaluations, Jina-VLM outperforms comparable models while preserving competitive text-only performance.
PDF42December 5, 2025