Технический отчет Ovis-Image
Ovis-Image Technical Report
November 28, 2025
Авторы: Guo-Hua Wang, Liangfu Cao, Tianyu Cui, Minghao Fu, Xiaohao Chen, Pengxin Zhan, Jianshan Zhao, Lan Li, Bowen Fu, Jiaqi Liu, Qing-Guo Chen
cs.AI
Аннотация
Мы представляем Ovis-Image — 7-миллиардную тексто-визуальную модель, специально оптимизированную для высококачественного рендеринга текста и предназначенную для эффективной работы в условиях строгих вычислительных ограничений. Построенная на основе нашей предыдущей архитектуры Ovis-U1, модель Ovis-Image интегрирует диффузионный визуальный декодер с более мощной мультимодальной основой Ovis 2.5, используя ориентированный на текст конвейер обучения, который сочетает масштабное предварительное обучение с тщательно подобранными пост-тренировочными доработками. Несмотря на компактную архитектуру, Ovis-Image демонстрирует качество рендеринга текста, сопоставимое с значительно более крупными открытыми моделями, такими как Qwen-Image, и приближается к проприетарным системам, таким как Seedream и GPT4o. Ключевым преимуществом является возможность развертывания модели на одной высокопроизводительной GPU с умеренным объемом памяти, что сокращает разрыв между передовыми возможностями рендеринга текста и практическим внедрением. Наши результаты показывают, что комбинация мощной мультимодальной основы с тщательно разработанным, ориентированным на текст подходом к обучению позволяет достичь надежного двуязычного рендеринга текста без привлечения избыточно больших или проприетарных моделей.
English
We introduce Ovis-Image, a 7B text-to-image model specifically optimized for high-quality text rendering, designed to operate efficiently under stringent computational constraints. Built upon our previous Ovis-U1 framework, Ovis-Image integrates a diffusion-based visual decoder with the stronger Ovis 2.5 multimodal backbone, leveraging a text-centric training pipeline that combines large-scale pre-training with carefully tailored post-training refinements. Despite its compact architecture, Ovis-Image achieves text rendering performance on par with significantly larger open models such as Qwen-Image and approaches closed-source systems like Seedream and GPT4o. Crucially, the model remains deployable on a single high-end GPU with moderate memory, narrowing the gap between frontier-level text rendering and practical deployment. Our results indicate that combining a strong multimodal backbone with a carefully designed, text-focused training recipe is sufficient to achieve reliable bilingual text rendering without resorting to oversized or proprietary models.