ChatPaper.aiChatPaper

Ming-Flash-Omni: Een Sparse, Uniforme Architectuur voor Multimodale Waarneming en Generatie

Ming-Flash-Omni: A Sparse, Unified Architecture for Multimodal Perception and Generation

October 28, 2025
Auteurs: Inclusion AI, Bowen Ma, Cheng Zou, Canxiang Yan, Chunxiang Jin, Chunjie Shen, Dandan Zheng, Fudong Wang, Furong Xu, GuangMing Yao, Jun Zhou, Jingdong Chen, Jianing Li, Jianxin Sun, Jiajia Liu, Jianjiang Zhu, Jianping Jiang, Jun Peng, Kaixiang Ji, Kaimeng Ren, Libin Wang, Lixiang Ru, Longhua Tan, Lan Wang, Mochen Bai, Ning Gao, Qingpei Guo, Qinglong Zhang, Qiang Xu, Rui Liu, Ruijie Xiong, Ruobing Zheng, Sirui Gao, Tianqi Li, Tinghao Liu, Weilong Chai, Xinyu Xiao, Xiaomei Wang, Xiaolong Wang, Xiao Lu, Xiaoyu Li, Xingning Dong, Xuzheng Yu, Yi Yuan, Yuting Gao, Yuting Xiao, Yunxiao Sun, Yipeng Chen, Yifan Mao, Yifei Wu, Yongjie Lyu, Ziping Ma, Zhiqiang Fang, Zhihao Qiu, Ziyuan Huang, Zizheng Yang, Zhengyu He
cs.AI

Samenvatting

Wij presenteren Ming-Flash-Omni, een geüpgradede versie van Ming-Omni, gebaseerd op een spaardere Mixture-of-Experts (MoE)-variant van Ling-Flash-2.0 met in totaal 100 miljard parameters, waarvan slechts 6,1 miljard actief zijn per token. Deze architectuur maakt zeer efficiënte schaalvergroting mogelijk (wat de rekenkundige efficiëntie aanzienlijk verbetert terwijl de modelcapaciteit sterk wordt uitgebreid) en bevordert een krachtigere, verenigde multimodale intelligentie voor visie, spraak en taal, wat een belangrijke stap richting Artificial General Intelligence (AGI) vertegenwoordigt. In vergelijking met zijn voorganger vertoont de geüpgradede versie aanzienlijke verbeteringen op het gebied van multimodaal begrip en generatie. Wij hebben de spraakherkenningsmogelijkheden aanzienlijk verbeterd, waarbij state-of-the-art prestaties worden behaald in contextuele ASR en zeer competitieve resultaten in dialectbewuste ASR. Bij beeldgeneratie introduceert Ming-Flash-Omni hoogwaardige tekstweergave en laat het aanzienlijke verbeteringen zien in scenconsistentie en identiteitsbehoud tijdens beeldbewerking. Bovendien introduceert Ming-Flash-Omni generatieve segmentatie, een mogelijkheid die niet alleen sterke standalone segmentatieprestaties bereikt, maar ook de ruimtelijke controle bij beeldgeneratie verbetert en de bewerkingsconsistentie vergroot. Opmerkelijk is dat Ming-Flash-Omni state-of-the-art resultaten behaalt in tekst-naar-beeld-generatie en generatieve segmentatie, en nieuwe records vestigt op alle 12 contextuele ASR-benchmarks, allemaal binnen één verenigde architectuur.
English
We propose Ming-Flash-Omni, an upgraded version of Ming-Omni, built upon a sparser Mixture-of-Experts (MoE) variant of Ling-Flash-2.0 with 100 billion total parameters, of which only 6.1 billion are active per token. This architecture enables highly efficient scaling (dramatically improving computational efficiency while significantly expanding model capacity) and empowers stronger unified multimodal intelligence across vision, speech, and language, representing a key step toward Artificial General Intelligence (AGI). Compared to its predecessor, the upgraded version exhibits substantial improvements across multimodal understanding and generation. We significantly advance speech recognition capabilities, achieving state-of-the-art performance in contextual ASR and highly competitive results in dialect-aware ASR. In image generation, Ming-Flash-Omni introduces high-fidelity text rendering and demonstrates marked gains in scene consistency and identity preservation during image editing. Furthermore, Ming-Flash-Omni introduces generative segmentation, a capability that not only achieves strong standalone segmentation performance but also enhances spatial control in image generation and improves editing consistency. Notably, Ming-Flash-Omni achieves state-of-the-art results in text-to-image generation and generative segmentation, and sets new records on all 12 contextual ASR benchmarks, all within a single unified architecture.
PDF361December 2, 2025