Технический отчет LongCat-Flash-Omni
LongCat-Flash-Omni Technical Report
October 31, 2025
Авторы: Meituan LongCat Team, Bairui Wang, Bayan, Bin Xiao, Bo Zhang, Bolin Rong, Borun Chen, Chang Wan, Chao Zhang, Chen Huang, Chen Chen, Chen Chen, Chengxu Yang, Chengzuo Yang, Cong Han, Dandan Peng, Delian Ruan, Detai Xin, Disong Wang, Dongchao Yang, Fanfan Liu, Fengjiao Chen, Fengyu Yang, Gan Dong, Gang Huang, Gang Xu, Guanglu Wan, Guoqiang Tan, Guoqiao Yu, Haibo Qiu, Hao Lu, Hongbo Liu, Hongyu Xiang, Jiaheng Wu, Jian Yang, Jiaxing Liu, Jing Huang, Jingang Wang, Jinrui Ding, Juchao Jiang, Jun Kuang, Jun Wang, Junhui Mei, Ke Ding, Kefeng Zhang, Lei Chen, Liang Shi, Limeng Qiao, Liming Zheng, Lin Ma, Liuyang Guo, Liya Ma, Luying Sun, Man Gao, Mengshen Zhu, Miao Cao, Minliang Lin, Nuo Xu, Peng Shi, Qi Zhang, Qian Fang, Qian Wang, Qian Yang, Quanxiu Wang, Rongxiang Weng, Rongxin Guo, Ruoxuan Liang, Senbin Yang, Shanbo Xu, Shanglin Lei, Shengze Ye, Shimin Chen, Shuaiqi Chen, Shujie Hu, Shuo Li, Siqi Yang, Siyu Xu, Siyu Ren, Song Li, Songxiang Liu, Tianhao Bai, Tianye Dai, Wei Hong, Wei Wang, Weixiao Zhao, Wengang Cao, Wenlong Zhu, Wenlong He, Xi Su, Xi Nan, Xiaohan Zhao, Xiaohao Wang, Xiaoyu Zhao, Xiaoyu Wang, Xiaoyu Li, Xin Pan, Xin Chen, Xiusong Sun, Xu Xiang, Xudong Xing, Xuezhi Cao, Xunliang Cai, Yang Yang, Yanli Tan, Yao Yao, Yerui Sun, Yi Chen, Yifan Lu, Yin Gong, Yining Zhang, Yitian Chen, Yiyang Gan, Yuchen Tang, Yuchen Xie, Yueqian Wang, Yuewen Zheng, Yufei Zhang, Yufeng Zhong, Yulei Qian, Yuqi Peng, Yuwei Jiang, Zeyang Hu, Zheng Zhang, Zhengkun Tian, Zhiqing Hong, Zhixiong Zeng, Zhuqi Mi, Ziran Li, Ziwen Wang, Ziyi Zhao, Ziyuan Zhuang, Zizhe Zhao
cs.AI
Аннотация
Мы представляем LongCat-Flash-Omni — передовую открытую омни-модальную модель с 560 миллиардами параметров, демонстрирующую превосходную производительность в задачах реального времени для аудиовизуального взаимодействия. Благодаря использованию прогрессивной стратегии обучения, вдохновленной принципами педагогического подхода, которая предполагает переход от простых к increasingly сложным задачам моделирования последовательностей модальностей, LongCat-Flash-Omni достигает комплексных мультимодальных возможностей при сохранении высокой унимодальной эффективности. Основанная на архитектуре LongCat-Flash, использующей высокопроизводительную Shortcut-connected Mixture-of-Experts (MoE) с экспертами нулевой вычислительной сложности, модель LongCat-Flash-Omni интегрирует эффективные модули мультимодального восприятия и реконструкции речи. Несмотря на огромный размер в 560 млрд параметров (с активацией 27 млрд), модель обеспечивает низкую задержку при работе в реальном времени. Для инфраструктуры обучения мы разработали схему модально-разделенного параллелизма, специально предназначенную для управления неоднородностью данных и моделей, присущей крупномасштабному мультимодальному обучению. Этот инновационный подход демонстрирует исключительную эффективность, сохраняя более 90% пропускной способности, достигаемой при обучении только на текстовых данных. Многочисленные оценки показывают, что LongCat-Flash-Omni достигает state-of-the-art результатов на омни-модальных бенчмарках среди открытых моделей. Кроме того, модель демонстрирует высококонкурентные результаты в широком спектре модально-специфичных задач, включая понимание текста, изображений и видео, а также понимание и генерацию аудио. Мы предоставляем всесторонний обзор архитектуры модели, процедур обучения и стратегий работы с данными, а также открываем исходный код модели для стимулирования будущих исследований и разработок в сообществе.
English
We introduce LongCat-Flash-Omni, a state-of-the-art open-source omni-modal
model with 560 billion parameters, excelling at real-time audio-visual
interaction. By adopting a curriculum-inspired progressive training strategy
that transitions from simpler to increasingly complex modality sequence
modeling tasks, LongCat-Flash-Omni attains comprehensive multimodal
capabilities while maintaining strong unimodal capability. Building upon
LongCat-Flash, which adopts a high-performance Shortcut-connected
Mixture-of-Experts (MoE) architecture with zero-computation experts,
LongCat-Flash-Omni integrates efficient multimodal perception and speech
reconstruction modules. Despite its immense size of 560B parameters (with 27B
activated), LongCat-Flash-Omni achieves low-latency real-time audio-visual
interaction. For training infrastructure, we developed a modality-decoupled
parallelism scheme specifically designed to manage the data and model
heterogeneity inherent in large-scale multimodal training. This innovative
approach demonstrates exceptional efficiency by sustaining over 90% of the
throughput achieved by text-only training. Extensive evaluations show that
LongCat-Flash-Omni achieves state-of-the-art performance on omni-modal
benchmarks among open-source models. Furthermore, it delivers highly
competitive results across a wide range of modality-specific tasks, including
text, image, and video understanding, as well as audio understanding and
generation. We provide a comprehensive overview of the model architecture
design, training procedures, and data strategies, and open-source the model to
foster future research and development in the community.