ChatPaper.aiChatPaper

Jina-VLM : Petit modèle de vision et de langage multilingue

Jina-VLM: Small Multilingual Vision Language Model

December 3, 2025
papers.authors: Andreas Koukounas, Georgios Mastrapas, Florian Hönicke, Sedigheh Eslami, Guillaume Roncari, Scott Martens, Han Xiao
cs.AI

papers.abstract

Nous présentons Jina-VLM, un modèle vision-langage de 2,4 milliards de paramètres qui atteint des performances de pointe en question-réponse visuelle multilingue parmi les VLM ouverts de taille comparable (environ 2B). Le modèle associe un encodeur visuel SigLIP2 à un backbone linguistique Qwen3 via un connecteur par pooling d'attention qui permet un traitement efficace en tokens d'images à résolution arbitraire. Sur des benchmarks standards d'évaluation VQA et des évaluations multilingues, Jina-VLM surpasse les modèles comparables tout en conservant des performances compétitives en traitement de texte seul.
English
We present Jina-VLM, a 2.4B parameter vision-language model that achieves state-of-the-art multilingual visual question answering among open 2B-scale VLMs. The model couples a SigLIP2 vision encoder with a Qwen3 language backbone through an attention-pooling connector that enables token-efficient processing of arbitrary-resolution images. Across standard VQA benchmarks and multilingual evaluations, Jina-VLM outperforms comparable models while preserving competitive text-only performance.
PDF42December 5, 2025