ChatPaper.aiChatPaper

MiniCPM-SALA: Hibridación de Atención Dispersa y Lineal para un Modelado Eficiente de Contextos Largos

MiniCPM-SALA: Hybridizing Sparse and Linear Attention for Efficient Long-Context Modeling

February 12, 2026
Autores: MiniCPM Team, Wenhao An, Yingfa Chen, Yewei Fang, Jiayi Li, Xin Li, Yaohui Li, Yishan Li, Yuxuan Li, Biyuan Lin, Chuan Liu, Hezi Liu, Siyuan Liu, Hongya Lyu, Yinxu Pan, Shixin Ren, Xingyu Shen, Zhou Su, Haojun Sun, Yangang Sun, Zhen Leng Thai, Xin Tian, Rui Wang, Xiaorong Wang, Yudong Wang, Bo Wu, Xiaoyue Xu, Dong Xu, Shuaikang Xue, Jiawei Yang, Bowen Zhang, Jinqian Zhang, Letian Zhang, Shengnan Zhang, Xinyu Zhang, Xinyuan Zhang, Zhu Zhang, Hengyu Zhao, Jiacheng Zhao, Jie Zhou, Zihan Zhou, Shuo Wang, Chaojun Xiao, Xu Han, Zhiyuan Liu, Maosong Sun
cs.AI

Resumen

La evolución de los modelos de lenguaje grandes (LLM) hacia aplicaciones con contextos ultralargos enfrenta desafíos planteados por los altos costes computacionales y de memoria de la arquitectura Transformer. Si bien los mecanismos de atención dispersa y lineal existentes intentan mitigar estos problemas, generalmente implican una compensación entre la eficiencia de memoria y el rendimiento del modelo. Este artículo presenta MiniCPM-SALA, una arquitectura híbrida de 9B parámetros que integra el modelado de contexto largo de alta fidelidad de la atención dispersa (InfLLM-V2) con la eficiencia global de la atención lineal (Lightning Attention). Mediante el empleo de un algoritmo de selección de capas para integrar estos mecanismos en una proporción 1:3 y la utilización de una codificación posicional híbrida (HyPE), el modelo mantiene la eficiencia y el rendimiento en tareas de contexto largo. Además, introducimos un marco de entrenamiento continuo de bajo coste que transforma modelos preentrenados basados en Transformer en modelos híbridos, lo que reduce los costes de entrenamiento en aproximadamente un 75% en comparación con el entrenamiento desde cero. Experimentos exhaustivos demuestran que MiniCPM-SALA mantiene capacidades generales comparables a los modelos de atención completa mientras ofrece una eficiencia mejorada. En una única GPU NVIDIA A6000D, el modelo logra hasta 3.5 veces la velocidad de inferencia del modelo de atención completa con una longitud de secuencia de 256K tokens y admite longitudes de contexto de hasta 1 millón de tokens, una escala en la que los modelos tradicionales de 8B con atención completa fallan debido a las limitaciones de memoria.
English
The evolution of large language models (LLMs) towards applications with ultra-long contexts faces challenges posed by the high computational and memory costs of the Transformer architecture. While existing sparse and linear attention mechanisms attempt to mitigate these issues, they typically involve a trade-off between memory efficiency and model performance. This paper introduces MiniCPM-SALA, a 9B-parameter hybrid architecture that integrates the high-fidelity long-context modeling of sparse attention (InfLLM-V2) with the global efficiency of linear attention (Lightning Attention). By employing a layer selection algorithm to integrate these mechanisms in a 1:3 ratio and utilizing a hybrid positional encoding (HyPE), the model maintains efficiency and performance for long-context tasks. Furthermore, we introduce a cost-effective continual training framework that transforms pre-trained Transformer-based models into hybrid models, which reduces training costs by approximately 75% compared to training from scratch. Extensive experiments show that MiniCPM-SALA maintains general capabilities comparable to full-attention models while offering improved efficiency. On a single NVIDIA A6000D GPU, the model achieves up to 3.5x the inference speed of the full-attention model at the sequence length of 256K tokens and supports context lengths of up to 1M tokens, a scale where traditional full-attention 8B models fail because of memory constraints.
PDF50February 14, 2026