Informe Técnico de Ovis-Image
Ovis-Image Technical Report
November 28, 2025
Autores: Guo-Hua Wang, Liangfu Cao, Tianyu Cui, Minghao Fu, Xiaohao Chen, Pengxin Zhan, Jianshan Zhao, Lan Li, Bowen Fu, Jiaqi Liu, Qing-Guo Chen
cs.AI
Resumen
Presentamos Ovis-Image, un modelo de texto a imagen de 7B específicamente optimizado para la representación de texto de alta calidad, diseñado para operar eficientemente bajo estrictas limitaciones computacionales. Construido sobre nuestro marco anterior Ovis-U1, Ovis-Image integra un decodificador visual basado en difusión con la más potente columna vertebral multimodal Ovis 2.5, aprovechando un pipeline de entrenamiento centrado en el texto que combina pre-entrenamiento a gran escala con refinamientos post-entrenamiento cuidadosamente adaptados. A pesar de su arquitectura compacta, Ovis-Image logra un rendimiento en representación de texto comparable con modelos abiertos significativamente más grandes, como Qwen-Image, y se acerca a sistemas de código cerrado como Seedream y GPT4o. Crucialmente, el modelo sigue siendo implementable en una única GPU de gama alta con memoria moderada, reduciendo la brecha entre la representación de texto de nivel fronterizo y la implementación práctica. Nuestros resultados indican que combinar una columna vertebral multimodal fuerte con una receta de entrenamiento cuidadosamente diseñada y centrada en el texto es suficiente para lograr una representación de texto bilingüe confiable sin recurrir a modelos de tamaño excesivo o propietarios.
English
We introduce Ovis-Image, a 7B text-to-image model specifically optimized for high-quality text rendering, designed to operate efficiently under stringent computational constraints. Built upon our previous Ovis-U1 framework, Ovis-Image integrates a diffusion-based visual decoder with the stronger Ovis 2.5 multimodal backbone, leveraging a text-centric training pipeline that combines large-scale pre-training with carefully tailored post-training refinements. Despite its compact architecture, Ovis-Image achieves text rendering performance on par with significantly larger open models such as Qwen-Image and approaches closed-source systems like Seedream and GPT4o. Crucially, the model remains deployable on a single high-end GPU with moderate memory, narrowing the gap between frontier-level text rendering and practical deployment. Our results indicate that combining a strong multimodal backbone with a carefully designed, text-focused training recipe is sufficient to achieve reliable bilingual text rendering without resorting to oversized or proprietary models.