ChatPaper.aiChatPaper

Ovis-Image 技術報告書

Ovis-Image Technical Report

November 28, 2025
著者: Guo-Hua Wang, Liangfu Cao, Tianyu Cui, Minghao Fu, Xiaohao Chen, Pengxin Zhan, Jianshan Zhao, Lan Li, Bowen Fu, Jiaqi Liu, Qing-Guo Chen
cs.AI

要旨

本論文では、計算資源が限られた環境下でも効率的に動作する、高品質なテキスト描画に特化して最適化された7Bパラメータのテキスト生成画像モデル「Ovis-Image」を提案する。Ovis-Imageは、従来のOvis-U1フレームワークを発展させ、拡散ベースのビジュアルデコーダと、より強力なOvis 2.5マルチモーダル基盤モデルを統合している。大規模な事前学習と、細心の注意を払って調整された学習後調整を組み合わせた、テキスト中心の学習パイプラインを採用している。コンパクトなアーキテクチャにもかかわらず、Ovis-Imageのテキスト描画性能は、Qwen-Imageのようなはるかに大規模なオープンモデルと同等であり、SeedreamやGPT4oのようなクローズドソースシステムに迫る。重要な点は、モデルが中程度のメモリを搭載した単一の高性能GPUにデプロイ可能であり、最先端のテキスト描画性能と実用的なデプロイ性のギャップを狭めていることである。実験結果は、強力なマルチモーダル基盤モデルと、注意深く設計されたテキスト焦点型の学習レシピを組み合わせることで、過大なモデルやプロプライエタリなモデルに頼ることなく、信頼性の高い二言語テキスト描画を実現できることを示唆している。
English
We introduce Ovis-Image, a 7B text-to-image model specifically optimized for high-quality text rendering, designed to operate efficiently under stringent computational constraints. Built upon our previous Ovis-U1 framework, Ovis-Image integrates a diffusion-based visual decoder with the stronger Ovis 2.5 multimodal backbone, leveraging a text-centric training pipeline that combines large-scale pre-training with carefully tailored post-training refinements. Despite its compact architecture, Ovis-Image achieves text rendering performance on par with significantly larger open models such as Qwen-Image and approaches closed-source systems like Seedream and GPT4o. Crucially, the model remains deployable on a single high-end GPU with moderate memory, narrowing the gap between frontier-level text rendering and practical deployment. Our results indicate that combining a strong multimodal backbone with a carefully designed, text-focused training recipe is sufficient to achieve reliable bilingual text rendering without resorting to oversized or proprietary models.
PDF21December 4, 2025