ChatPaper.aiChatPaper

Ming-Flash-Omni: マルチモーダル知覚と生成のための疎な統一アーキテクチャ

Ming-Flash-Omni: A Sparse, Unified Architecture for Multimodal Perception and Generation

October 28, 2025
著者: Inclusion AI, Bowen Ma, Cheng Zou, Canxiang Yan, Chunxiang Jin, Chunjie Shen, Dandan Zheng, Fudong Wang, Furong Xu, GuangMing Yao, Jun Zhou, Jingdong Chen, Jianing Li, Jianxin Sun, Jiajia Liu, Jianjiang Zhu, Jianping Jiang, Jun Peng, Kaixiang Ji, Kaimeng Ren, Libin Wang, Lixiang Ru, Longhua Tan, Lan Wang, Mochen Bai, Ning Gao, Qingpei Guo, Qinglong Zhang, Qiang Xu, Rui Liu, Ruijie Xiong, Ruobing Zheng, Sirui Gao, Tianqi Li, Tinghao Liu, Weilong Chai, Xinyu Xiao, Xiaomei Wang, Xiaolong Wang, Xiao Lu, Xiaoyu Li, Xingning Dong, Xuzheng Yu, Yi Yuan, Yuting Gao, Yuting Xiao, Yunxiao Sun, Yipeng Chen, Yifan Mao, Yifei Wu, Yongjie Lyu, Ziping Ma, Zhiqiang Fang, Zhihao Qiu, Ziyuan Huang, Zizheng Yang, Zhengyu He
cs.AI

要旨

我々はMing-Omniのアップグレード版であるMing-Flash-Omniを提案する。本モデルはLing-Flash-2.0のスパーサーなMixture-of-Experts(MoE)変種を基盤としており、総パラメータ数は1,000億であるが、トークンごとに活性化するパラメータは61億に留まる。このアーキテクチャは、計算効率を劇的に向上させながらモデル容量を大幅に拡大する高効率なスケーリングを可能とし、視覚・音声・言語にわたる強力な統一マルチモーダル知能を実現するもので、人工汎用知能(AGI)に向けた重要な一歩を表している。前身モデルと比較して、本アップグレード版はマルチモーダル理解と生成の両方で大幅な改善を示している。我々は音声認識能力を大幅に進化させ、文脈認識ASRではState-of-the-Art性能を達成し、方言認識ASRでは極めて競争力の高い結果を得た。画像生成においては、Ming-Flash-Omniは高精細なテキスト描画を実現し、画像編集時のシーン一貫性とアイデンティティ保存において顕著な向上を示す。さらに、Ming-Flash-Omniは生成的セグメンテーション機能を導入し、単体での強力なセグメンテーション性能を達成するだけでなく、画像生成における空間制御を強化し、編集の一貫性を向上させる。特筆すべきは、Ming-Flash-Omniがテキストからの画像生成と生成的セグメンテーションの両方でState-of-the-Artを達成し、12の文脈認識ASRベンチマーク全てで新記録を樹立したことで、これらは全て単一の統一アーキテクチャ内で実現されている。
English
We propose Ming-Flash-Omni, an upgraded version of Ming-Omni, built upon a sparser Mixture-of-Experts (MoE) variant of Ling-Flash-2.0 with 100 billion total parameters, of which only 6.1 billion are active per token. This architecture enables highly efficient scaling (dramatically improving computational efficiency while significantly expanding model capacity) and empowers stronger unified multimodal intelligence across vision, speech, and language, representing a key step toward Artificial General Intelligence (AGI). Compared to its predecessor, the upgraded version exhibits substantial improvements across multimodal understanding and generation. We significantly advance speech recognition capabilities, achieving state-of-the-art performance in contextual ASR and highly competitive results in dialect-aware ASR. In image generation, Ming-Flash-Omni introduces high-fidelity text rendering and demonstrates marked gains in scene consistency and identity preservation during image editing. Furthermore, Ming-Flash-Omni introduces generative segmentation, a capability that not only achieves strong standalone segmentation performance but also enhances spatial control in image generation and improves editing consistency. Notably, Ming-Flash-Omni achieves state-of-the-art results in text-to-image generation and generative segmentation, and sets new records on all 12 contextual ASR benchmarks, all within a single unified architecture.
PDF361December 2, 2025