ChatPaper.aiChatPaper

Ming-Flash-Omni: Una Arquitectura Escasa y Unificada para la Percepción y Generación Multimodal

Ming-Flash-Omni: A Sparse, Unified Architecture for Multimodal Perception and Generation

October 28, 2025
Autores: Inclusion AI, Bowen Ma, Cheng Zou, Canxiang Yan, Chunxiang Jin, Chunjie Shen, Dandan Zheng, Fudong Wang, Furong Xu, GuangMing Yao, Jun Zhou, Jingdong Chen, Jianing Li, Jianxin Sun, Jiajia Liu, Jianjiang Zhu, Jianping Jiang, Jun Peng, Kaixiang Ji, Kaimeng Ren, Libin Wang, Lixiang Ru, Longhua Tan, Lan Wang, Mochen Bai, Ning Gao, Qingpei Guo, Qinglong Zhang, Qiang Xu, Rui Liu, Ruijie Xiong, Ruobing Zheng, Sirui Gao, Tianqi Li, Tinghao Liu, Weilong Chai, Xinyu Xiao, Xiaomei Wang, Xiaolong Wang, Xiao Lu, Xiaoyu Li, Xingning Dong, Xuzheng Yu, Yi Yuan, Yuting Gao, Yuting Xiao, Yunxiao Sun, Yipeng Chen, Yifan Mao, Yifei Wu, Yongjie Lyu, Ziping Ma, Zhiqiang Fang, Zhihao Qiu, Ziyuan Huang, Zizheng Yang, Zhengyu He
cs.AI

Resumen

Proponemos Ming-Flash-Omni, una versión mejorada de Ming-Omni, construida sobre una variante más dispersa de Mixture-of-Experts (MoE) de Ling-Flash-2.0 con 100 mil millones de parámetros totales, de los cuales solo 6.1 mil millones están activos por *token*. Esta arquitectura permite un escalado altamente eficiente (mejorando drásticamente la eficiencia computacional mientras expande significativamente la capacidad del modelo) y potencia una inteligencia multimodal unificada más fuerte a través de la visión, el habla y el lenguaje, representando un paso clave hacia la Inteligencia Artificial General (IAG). En comparación con su predecesora, la versión mejorada exhibe mejoras sustanciales en la comprensión y generación multimodal. Avanzamos significativamente en las capacidades de reconocimiento de voz, logrando un rendimiento de vanguardia en ASR contextual y resultados altamente competitivos en ASR consciente de dialectos. En generación de imágenes, Ming-Flash-Omni introduce una representación de texto de alta fidelidad y demuestra ganancias marcadas en la coherencia escénica y la preservación de la identidad durante la edición de imágenes. Además, Ming-Flash-Omni introduce la segmentación generativa, una capacidad que no solo logra un fuerte rendimiento de segmentación independiente, sino que también mejora el control espacial en la generación de imágenes y aumenta la coherencia en la edición. Cabe destacar que Ming-Flash-Omni logra resultados de vanguardia en generación de texto a imagen y segmentación generativa, y establece nuevos récords en los 12 puntos de referencia de ASR contextual, todo dentro de una única arquitectura unificada.
English
We propose Ming-Flash-Omni, an upgraded version of Ming-Omni, built upon a sparser Mixture-of-Experts (MoE) variant of Ling-Flash-2.0 with 100 billion total parameters, of which only 6.1 billion are active per token. This architecture enables highly efficient scaling (dramatically improving computational efficiency while significantly expanding model capacity) and empowers stronger unified multimodal intelligence across vision, speech, and language, representing a key step toward Artificial General Intelligence (AGI). Compared to its predecessor, the upgraded version exhibits substantial improvements across multimodal understanding and generation. We significantly advance speech recognition capabilities, achieving state-of-the-art performance in contextual ASR and highly competitive results in dialect-aware ASR. In image generation, Ming-Flash-Omni introduces high-fidelity text rendering and demonstrates marked gains in scene consistency and identity preservation during image editing. Furthermore, Ming-Flash-Omni introduces generative segmentation, a capability that not only achieves strong standalone segmentation performance but also enhances spatial control in image generation and improves editing consistency. Notably, Ming-Flash-Omni achieves state-of-the-art results in text-to-image generation and generative segmentation, and sets new records on all 12 contextual ASR benchmarks, all within a single unified architecture.
PDF361December 2, 2025