ChatPaper.aiChatPaper

Rapporto Tecnico LongCat-Flash-Omni

LongCat-Flash-Omni Technical Report

October 31, 2025
Autori: Meituan LongCat Team, Bairui Wang, Bayan, Bin Xiao, Bo Zhang, Bolin Rong, Borun Chen, Chang Wan, Chao Zhang, Chen Huang, Chen Chen, Chen Chen, Chengxu Yang, Chengzuo Yang, Cong Han, Dandan Peng, Delian Ruan, Detai Xin, Disong Wang, Dongchao Yang, Fanfan Liu, Fengjiao Chen, Fengyu Yang, Gan Dong, Gang Huang, Gang Xu, Guanglu Wan, Guoqiang Tan, Guoqiao Yu, Haibo Qiu, Hao Lu, Hongbo Liu, Hongyu Xiang, Jiaheng Wu, Jian Yang, Jiaxing Liu, Jing Huang, Jingang Wang, Jinrui Ding, Juchao Jiang, Jun Kuang, Jun Wang, Junhui Mei, Ke Ding, Kefeng Zhang, Lei Chen, Liang Shi, Limeng Qiao, Liming Zheng, Lin Ma, Liuyang Guo, Liya Ma, Luying Sun, Man Gao, Mengshen Zhu, Miao Cao, Minliang Lin, Nuo Xu, Peng Shi, Qi Zhang, Qian Fang, Qian Wang, Qian Yang, Quanxiu Wang, Rongxiang Weng, Rongxin Guo, Ruoxuan Liang, Senbin Yang, Shanbo Xu, Shanglin Lei, Shengze Ye, Shimin Chen, Shuaiqi Chen, Shujie Hu, Shuo Li, Siqi Yang, Siyu Xu, Siyu Ren, Song Li, Songxiang Liu, Tianhao Bai, Tianye Dai, Wei Hong, Wei Wang, Weixiao Zhao, Wengang Cao, Wenlong Zhu, Wenlong He, Xi Su, Xi Nan, Xiaohan Zhao, Xiaohao Wang, Xiaoyu Zhao, Xiaoyu Wang, Xiaoyu Li, Xin Pan, Xin Chen, Xiusong Sun, Xu Xiang, Xudong Xing, Xuezhi Cao, Xunliang Cai, Yang Yang, Yanli Tan, Yao Yao, Yerui Sun, Yi Chen, Yifan Lu, Yin Gong, Yining Zhang, Yitian Chen, Yiyang Gan, Yuchen Tang, Yuchen Xie, Yueqian Wang, Yuewen Zheng, Yufei Zhang, Yufeng Zhong, Yulei Qian, Yuqi Peng, Yuwei Jiang, Zeyang Hu, Zheng Zhang, Zhengkun Tian, Zhiqing Hong, Zhixiong Zeng, Zhuqi Mi, Ziran Li, Ziwen Wang, Ziyi Zhao, Ziyuan Zhuang, Zizhe Zhao
cs.AI

Abstract

Introduciamo LongCat-Flash-Omni, un modello open-source all'avanguardia di tipo omni-modale da 560 miliardi di parametri, che eccelle nell'interazione audio-visiva in tempo reale. Adottando una strategia di addestramento progressivo ispirata al *curriculum learning*, che passa da compiti di modellazione sequenziale di modalità più semplici a compiti via via più complessi, LongCat-Flash-Omni acquisisce capacità multimodali complete mantenendo al contempo solide capacità unimodali. Basandosi su LongCat-Flash, che utilizza un'architettura ad alte prestazioni di tipo *Mixture-of-Experts* (MoE) con connessioni *Shortcut* ed esperti a computazione zero, LongCat-Flash-Omni integra moduli efficienti per la percezione multimodale e la ricostruzione del parlato. Nonostante le immense dimensioni di 560B di parametri (di cui 27B attivati), LongCat-Flash-Omni raggiunge un'interazione audio-visiva in tempo reale a bassa latenza. Per l'infrastruttura di addestramento, abbiamo sviluppato uno schema di parallelismo a modalità disaccoppiate, progettato specificamente per gestire l'eterogeneità dei dati e del modello intrinseca nell'addestramento multimodale su larga scala. Questo approccio innovativo dimostra un'efficienza eccezionale mantenendo oltre il 90% della produttività ottenuta con l'addestramento su solo testo. Valutazioni estensive mostrano che LongCat-Flash-Omni raggiunge prestazioni all'avanguardia sui benchmark omni-modali tra i modelli open-source. Inoltre, fornisce risultati altamente competitivi su un'ampia gamma di task specifici per modalità, inclusi la comprensione di testo, immagini e video, nonché la comprensione e generazione audio. Forniamo una panoramica completa della progettazione dell'architettura del modello, delle procedure di addestramento e delle strategie sui dati, e rendiamo open-source il modello per promuovere la futura ricerca e sviluppo nella comunità.
English
We introduce LongCat-Flash-Omni, a state-of-the-art open-source omni-modal model with 560 billion parameters, excelling at real-time audio-visual interaction. By adopting a curriculum-inspired progressive training strategy that transitions from simpler to increasingly complex modality sequence modeling tasks, LongCat-Flash-Omni attains comprehensive multimodal capabilities while maintaining strong unimodal capability. Building upon LongCat-Flash, which adopts a high-performance Shortcut-connected Mixture-of-Experts (MoE) architecture with zero-computation experts, LongCat-Flash-Omni integrates efficient multimodal perception and speech reconstruction modules. Despite its immense size of 560B parameters (with 27B activated), LongCat-Flash-Omni achieves low-latency real-time audio-visual interaction. For training infrastructure, we developed a modality-decoupled parallelism scheme specifically designed to manage the data and model heterogeneity inherent in large-scale multimodal training. This innovative approach demonstrates exceptional efficiency by sustaining over 90% of the throughput achieved by text-only training. Extensive evaluations show that LongCat-Flash-Omni achieves state-of-the-art performance on omni-modal benchmarks among open-source models. Furthermore, it delivers highly competitive results across a wide range of modality-specific tasks, including text, image, and video understanding, as well as audio understanding and generation. We provide a comprehensive overview of the model architecture design, training procedures, and data strategies, and open-source the model to foster future research and development in the community.
PDF221December 2, 2025