Jina-VLM: 小規模多言語視覚言語モデル
Jina-VLM: Small Multilingual Vision Language Model
December 3, 2025
著者: Andreas Koukounas, Georgios Mastrapas, Florian Hönicke, Sedigheh Eslami, Guillaume Roncari, Scott Martens, Han Xiao
cs.AI
要旨
私たちは、24億パラメータを持つ視覚言語モデル「Jina-VLM」を発表します。本モデルは、オープンな20億規模のVLMの中で、多言語視覚質問応答において最高精度を達成しました。SigLIP2ビジョンエンコーダーとQwen3言語バックボーンを、任意解像度の画像をトークン効率的に処理可能なアテンションプーリング接続部で統合しています。標準的なVQAベンチマークおよび多言語評価において、Jina-VLMは同等規模のモデルを凌駕する性能を示しつつ、テキスト単体タスクでも競争力のある性能を維持しています。
English
We present Jina-VLM, a 2.4B parameter vision-language model that achieves state-of-the-art multilingual visual question answering among open 2B-scale VLMs. The model couples a SigLIP2 vision encoder with a Qwen3 language backbone through an attention-pooling connector that enables token-efficient processing of arbitrary-resolution images. Across standard VQA benchmarks and multilingual evaluations, Jina-VLM outperforms comparable models while preserving competitive text-only performance.