ChatPaper.aiChatPaper

Benchmark de Atenção de Contexto Longo: Da Eficiência do Kernel ao Paralelismo Distribuído de Contexto

Long-Context Attention Benchmark: From Kernel Efficiency to Distributed Context Parallelism

October 19, 2025
Autores: Tao Bu, Qiangang Wang, Bowen Zeng, Hanwen Sun, Yunpeng Huang, Chun Cao, Jingwei Xu
cs.AI

Resumo

Os modelos de linguagem de grande porte (LLMs) baseados em Transformer alcançaram sucesso notável, mas seu mecanismo de atenção padrão incorre em custos quadráticos de computação e memória em relação ao comprimento da sequência, representando um grande gargalo para o treinamento de contexto longo. Trabalhos anteriores abordam esse desafio em duas direções: (1) otimizações em nível de *kernel*, que aceleram operadores de atenção densa e esparsa; e (2) estratégias em nível de módulo, frequentemente chamadas de atenção distribuída ou treinamento paralelo de contexto, que dimensionam a atenção em múltiplos dispositivos. No entanto, a avaliação sistemática ainda é limitada: comparações em nível de operador são frequentemente incompletas, enquanto estratégias de paralelismo de contexto são tipicamente específicas de *framework*, com análise de desempenho pouco clara entre contextos. Para abordar essas lacunas, propomos um *benchmark* unificado que integra *kernels* de atenção representativos e mecanismos de paralelismo de contexto com uma interface modular e extensível para avaliação. O *benchmark* avalia métodos ao longo de duas dimensões críticas: (1) padrões de máscara de atenção, que afetam fortemente a eficiência, escalabilidade e usabilidade, e (2) comprimento da sequência e escala distribuída, que determinam o desempenho sob treinamento de contexto extremamente longo. Por meio de experimentos abrangentes no *cluster* de até 96 GPUs, nosso *benchmark* permite comparações reproduzíveis, destaca *trade-offs* específicos de cada método e fornece orientação prática para projetar e implantar mecanismos de atenção no treinamento de LLMs de contexto longo.
English
Transformer-based large language models (LLMs) have achieved remarkable success, yet their standard attention mechanism incurs quadratic computation and memory costs with respect to sequence length, posing a major bottleneck for long-context training. Prior work tackles this challenge along two directions: (1) kernel-level optimizations, which accelerate dense and sparse attention operators; and (2) module-level strategies, often referred to as distributed attention or context parallel training, which scale attention across multiple devices. However, systematic evaluation still remains limited: operator-level comparisons are often incomplete, while context parallel strategies are typically framework-specific, with unclear performance analysis across contexts. To address these gaps, we propose a unified benchmark that integrates representative attention kernels and context parallel mechanisms with a modular and extensible interface for evaluation. The benchmark evaluates methods along two critical dimensions: (1) attention mask patterns, which strongly affect efficiency, scalability, and usability, and (2) sequence length and distributed scale, which determine performance under extreme long-context training. Through comprehensive experiments on the cluster of up to 96 GPUs, our benchmark enables reproducible comparisons, highlights method-specific trade-offs, and provides practical guidance for designing and deploying attention mechanisms in long-context LLM training.
PDF42December 2, 2025