Jina-VLM: Kleines mehrsprachiges Vision-Language-Modell
Jina-VLM: Small Multilingual Vision Language Model
December 3, 2025
papers.authors: Andreas Koukounas, Georgios Mastrapas, Florian Hönicke, Sedigheh Eslami, Guillaume Roncari, Scott Martens, Han Xiao
cs.AI
papers.abstract
Wir stellen Jina-VLM vor, ein multimodales Vision-Language-Modell mit 2,4 Milliarden Parametern, das im Bereich des multisprachigen visuellen Frageantwortens unter offenen VLMs im 2-Milliarden-Maßstab state-of-the-art Ergebnisse erzielt. Das Modell kombiniert einen SigLIP2-Vision-Encoder mit einem Qwen3-Sprachmodell durch einen Attention-Pooling-Connector, der token-effiziente Verarbeitung von Bildern mit beliebiger Auflösung ermöglicht. In standardisierten VQA-Benchmarks und multisprachigen Evaluierungen übertrifft Jina-VLM vergleichbare Modelle, bei gleichzeitig wettbewerbsfähiger Performance in reinen Textaufgaben.
English
We present Jina-VLM, a 2.4B parameter vision-language model that achieves state-of-the-art multilingual visual question answering among open 2B-scale VLMs. The model couples a SigLIP2 vision encoder with a Qwen3 language backbone through an attention-pooling connector that enables token-efficient processing of arbitrary-resolution images. Across standard VQA benchmarks and multilingual evaluations, Jina-VLM outperforms comparable models while preserving competitive text-only performance.