ChatPaper.aiChatPaper

MiniCPM-SALA : Hybridation de l'attention parcimonieuse et linéaire pour une modélisation efficace de contextes longs

MiniCPM-SALA: Hybridizing Sparse and Linear Attention for Efficient Long-Context Modeling

February 12, 2026
papers.authors: MiniCPM Team, Wenhao An, Yingfa Chen, Yewei Fang, Jiayi Li, Xin Li, Yaohui Li, Yishan Li, Yuxuan Li, Biyuan Lin, Chuan Liu, Hezi Liu, Siyuan Liu, Hongya Lyu, Yinxu Pan, Shixin Ren, Xingyu Shen, Zhou Su, Haojun Sun, Yangang Sun, Zhen Leng Thai, Xin Tian, Rui Wang, Xiaorong Wang, Yudong Wang, Bo Wu, Xiaoyue Xu, Dong Xu, Shuaikang Xue, Jiawei Yang, Bowen Zhang, Jinqian Zhang, Letian Zhang, Shengnan Zhang, Xinyu Zhang, Xinyuan Zhang, Zhu Zhang, Hengyu Zhao, Jiacheng Zhao, Jie Zhou, Zihan Zhou, Shuo Wang, Chaojun Xiao, Xu Han, Zhiyuan Liu, Maosong Sun
cs.AI

papers.abstract

L'évolution des grands modèles de langage (LLM) vers des applications à contextes ultra-longs se heurte aux défis posés par le coût computationnel et mémoire élevé de l'architecture Transformer. Bien que les mécanismes d'attention clairsemée et linéaire existants tentent d'atténuer ces problèmes, ils impliquent généralement un compromis entre l'efficacité mémoire et les performances du modèle. Cet article présente MiniCPM-SALA, une architecture hybride à 9 milliards de paramètres qui intègre la modélisation haute fidélité des contextes longs de l'attention clairsemée (InfLLM-V2) avec l'efficacité globale de l'attention linéaire (Lightning Attention). En utilisant un algorithme de sélection de couches pour intégrer ces mécanismes dans un ratio de 1:3 et en exploitant un codage positionnel hybride (HyPE), le modèle maintient son efficacité et ses performances pour les tâches à contexte long. De plus, nous introduisons un cadre d'entraînement continu économique qui transforme les modèles pré-entraînés basés sur Transformer en modèles hybrides, réduisant les coûts d'entraînement d'environ 75 % par rapport à un entraînement à partir de zéro. Des expériences approfondies montrent que MiniCPM-SALA conserve des capacités générales comparables aux modèles à attention complète tout en offrant une meilleure efficacité. Sur une seule GPU NVIDIA A6000D, le modèle atteint jusqu'à 3,5 fois la vitesse d'inférence du modèle à attention complète pour une longueur de séquence de 256 000 tokens et prend en charge des contextes allant jusqu'à 1 million de tokens, une échelle à laquelle les modèles 8B traditionnels à attention complète échouent en raison de contraintes mémoire.
English
The evolution of large language models (LLMs) towards applications with ultra-long contexts faces challenges posed by the high computational and memory costs of the Transformer architecture. While existing sparse and linear attention mechanisms attempt to mitigate these issues, they typically involve a trade-off between memory efficiency and model performance. This paper introduces MiniCPM-SALA, a 9B-parameter hybrid architecture that integrates the high-fidelity long-context modeling of sparse attention (InfLLM-V2) with the global efficiency of linear attention (Lightning Attention). By employing a layer selection algorithm to integrate these mechanisms in a 1:3 ratio and utilizing a hybrid positional encoding (HyPE), the model maintains efficiency and performance for long-context tasks. Furthermore, we introduce a cost-effective continual training framework that transforms pre-trained Transformer-based models into hybrid models, which reduces training costs by approximately 75% compared to training from scratch. Extensive experiments show that MiniCPM-SALA maintains general capabilities comparable to full-attention models while offering improved efficiency. On a single NVIDIA A6000D GPU, the model achieves up to 3.5x the inference speed of the full-attention model at the sequence length of 256K tokens and supports context lengths of up to 1M tokens, a scale where traditional full-attention 8B models fail because of memory constraints.
PDF50February 14, 2026