MiniCPM-SALA: Hybridisierung von spärlicher und linearer Aufmerksamkeit für effiziente Modellierung langer Kontexte
MiniCPM-SALA: Hybridizing Sparse and Linear Attention for Efficient Long-Context Modeling
February 12, 2026
papers.authors: MiniCPM Team, Wenhao An, Yingfa Chen, Yewei Fang, Jiayi Li, Xin Li, Yaohui Li, Yishan Li, Yuxuan Li, Biyuan Lin, Chuan Liu, Hezi Liu, Siyuan Liu, Hongya Lyu, Yinxu Pan, Shixin Ren, Xingyu Shen, Zhou Su, Haojun Sun, Yangang Sun, Zhen Leng Thai, Xin Tian, Rui Wang, Xiaorong Wang, Yudong Wang, Bo Wu, Xiaoyue Xu, Dong Xu, Shuaikang Xue, Jiawei Yang, Bowen Zhang, Jinqian Zhang, Letian Zhang, Shengnan Zhang, Xinyu Zhang, Xinyuan Zhang, Zhu Zhang, Hengyu Zhao, Jiacheng Zhao, Jie Zhou, Zihan Zhou, Shuo Wang, Chaojun Xiao, Xu Han, Zhiyuan Liu, Maosong Sun
cs.AI
papers.abstract
Die Entwicklung großer Sprachmodelle (LLMs) für Anwendungen mit ultra-langen Kontexten sieht sich mit Herausforderungen konfrontiert, die durch die hohen Rechen- und Speicherkosten der Transformer-Architektur verursacht werden. Während bestehende spärliche und lineare Aufmerksamkeitsmechanismen versuchen, diese Probleme zu mildern, gehen sie typischerweise mit einem Kompromiss zwischen Speichereffizienz und Modellleistung einher. Dieses Paper stellt MiniCPM-SALA vor, eine hybride Architektur mit 9 Milliarden Parametern, die die hochpräzise Langzeit-Kontextmodellierung von Sparse-Attention (InfLLM-V2) mit der globalen Effizienz von Linear-Attention (Lightning Attention) integriert. Durch den Einsatz eines Layer-Auswahlalgorithmus zur Integration dieser Mechanismen im Verhältnis 1:3 und die Verwendung einer hybriden Positionskodierung (HyPE) bewahrt das Modell Effizienz und Leistung für Aufgaben mit langen Kontexten. Darüber hinaus führen wir ein kostengünstiges kontinuierliches Trainingsframework ein, das vortrainierte Transformer-basierte Modelle in hybride Modelle umwandelt und die Trainingskosten im Vergleich zum Training von Grund auf um etwa 75 % reduziert. Umfangreiche Experimente zeigen, dass MiniCPM-SALA allgemeine Fähigkeiten beibehält, die mit Full-Attention-Modellen vergleichbar sind, bei gleichzeitig verbesserter Effizienz. Auf einer einzelnen NVIDIA A6000D GPU erreicht das Modell eine bis zu 3,5-fache Inferenzgeschwindigkeit des Full-Attention-Modells bei einer Sequenzlänge von 256.000 Tokens und unterstützt Kontextlängen von bis zu 1 Million Tokens – eine Größenordnung, bei der traditionelle 8-Milliarden-Parameter-Modelle mit voller Aufmerksamkeit aufgrund von Speicherbeschränkungen versagen.
English
The evolution of large language models (LLMs) towards applications with ultra-long contexts faces challenges posed by the high computational and memory costs of the Transformer architecture. While existing sparse and linear attention mechanisms attempt to mitigate these issues, they typically involve a trade-off between memory efficiency and model performance. This paper introduces MiniCPM-SALA, a 9B-parameter hybrid architecture that integrates the high-fidelity long-context modeling of sparse attention (InfLLM-V2) with the global efficiency of linear attention (Lightning Attention). By employing a layer selection algorithm to integrate these mechanisms in a 1:3 ratio and utilizing a hybrid positional encoding (HyPE), the model maintains efficiency and performance for long-context tasks. Furthermore, we introduce a cost-effective continual training framework that transforms pre-trained Transformer-based models into hybrid models, which reduces training costs by approximately 75% compared to training from scratch. Extensive experiments show that MiniCPM-SALA maintains general capabilities comparable to full-attention models while offering improved efficiency. On a single NVIDIA A6000D GPU, the model achieves up to 3.5x the inference speed of the full-attention model at the sequence length of 256K tokens and supports context lengths of up to 1M tokens, a scale where traditional full-attention 8B models fail because of memory constraints.