ChatPaper.aiChatPaper

Benchmark d'Attention à Contexte Long : De l'Efficacité des Noyaux au Parallélisme Distribué de Contexte

Long-Context Attention Benchmark: From Kernel Efficiency to Distributed Context Parallelism

October 19, 2025
papers.authors: Tao Bu, Qiangang Wang, Bowen Zeng, Hanwen Sun, Yunpeng Huang, Chun Cao, Jingwei Xu
cs.AI

papers.abstract

Les grands modèles de langage (LLM) basés sur l'architecture Transformer ont obtenu des succès remarquables, mais leur mécanisme d'attention standard entraîne des coûts de calcul et de mémoire quadratiques par rapport à la longueur des séquences, constituant un goulot d'étranglement majeur pour l'entraînement en contexte long. Les travaux antérieurs abordent ce défi selon deux axes : (1) les optimisations au niveau noyau, qui accélèrent les opérateurs d'attention dense et clairsemée ; et (2) les stratégies au niveau module, souvent appelées attention distribuée ou entraînement parallèle par contexte, qui répartissent le calcul de l'attention sur plusieurs appareils. Cependant, l'évaluation systématique reste limitée : les comparaisons au niveau opérateur sont souvent incomplètes, tandis que les stratégies parallèles par contexte sont généralement spécifiques à un framework, avec une analyse de performance peu claire selon les contextes. Pour combler ces lacunes, nous proposons un benchmark unifié qui intègre des noyaux d'attention représentatifs et des mécanismes parallèles par contexte avec une interface modulaire et extensible pour l'évaluation. Le benchmark évalue les méthodes selon deux dimensions critiques : (1) les motifs de masque d'attention, qui affectent fortement l'efficacité, l'évolutivité et la facilité d'utilisation, et (2) la longueur des séquences et l'échelle distribuée, qui déterminent les performances dans des conditions d'entraînement en contexte extrêmement long. Grâce à des expériences complètes sur un cluster allant jusqu'à 96 GPU, notre benchmark permet des comparaisons reproductibles, met en lumière les compromis spécifiques à chaque méthode et fournit des conseils pratiques pour la conception et le déploiement de mécanismes d'attention dans l'entraînement de LLM en contexte long.
English
Transformer-based large language models (LLMs) have achieved remarkable success, yet their standard attention mechanism incurs quadratic computation and memory costs with respect to sequence length, posing a major bottleneck for long-context training. Prior work tackles this challenge along two directions: (1) kernel-level optimizations, which accelerate dense and sparse attention operators; and (2) module-level strategies, often referred to as distributed attention or context parallel training, which scale attention across multiple devices. However, systematic evaluation still remains limited: operator-level comparisons are often incomplete, while context parallel strategies are typically framework-specific, with unclear performance analysis across contexts. To address these gaps, we propose a unified benchmark that integrates representative attention kernels and context parallel mechanisms with a modular and extensible interface for evaluation. The benchmark evaluates methods along two critical dimensions: (1) attention mask patterns, which strongly affect efficiency, scalability, and usability, and (2) sequence length and distributed scale, which determine performance under extreme long-context training. Through comprehensive experiments on the cluster of up to 96 GPUs, our benchmark enables reproducible comparisons, highlights method-specific trade-offs, and provides practical guidance for designing and deploying attention mechanisms in long-context LLM training.
PDF42December 2, 2025