MoA: Miscela di Attenzione Sparsa per la Compressione Automatica di Modelli Linguistici di Grandi Dimensioni
MoA: Mixture of Sparse Attention for Automatic Large Language Model Compression
June 21, 2024
Autori: Tianyu Fu, Haofeng Huang, Xuefei Ning, Genghan Zhang, Boju Chen, Tianqi Wu, Hongyi Wang, Zixiao Huang, Shiyao Li, Shengen Yan, Guohao Dai, Huazhong Yang, Yu Wang
cs.AI
Abstract
L'attenzione sparsa può mitigare efficacemente le significative richieste di memoria e throughput dei Large Language Models (LLM) in contesti lunghi. I metodi esistenti impiegano tipicamente una maschera di attenzione sparsa uniforme, applicando lo stesso schema sparso su diverse teste di attenzione e lunghezze di input. Tuttavia, questo approccio uniforme non riesce a catturare i diversi schemi di attenzione intrinseci nei LLM, ignorando i loro distinti compromessi tra accuratezza e latenza. Per affrontare questa sfida, proponiamo la Mixture of Attention (MoA), che adatta automaticamente configurazioni di attenzione sparsa distinte a diverse teste e livelli. MoA costruisce e naviga uno spazio di ricerca di vari schemi di attenzione e delle loro regole di scalabilità relative alle lunghezze delle sequenze di input. Profila il modello, valuta le configurazioni potenziali e individua il piano ottimale di compressione dell'attenzione sparsa. MoA si adatta a dimensioni di input variabili, rivelando che alcune teste di attenzione ampliano il loro focus per adattarsi a sequenze più lunghe, mentre altre teste si concentrano costantemente su contesti locali di lunghezza fissa. Gli esperimenti mostrano che MoA aumenta la lunghezza effettiva del contesto di 3,9 volte con la stessa media di attenzione, migliorando l'accuratezza di recupero di 1,5-7,1 volte rispetto alla baseline di attenzione uniforme sui modelli Vicuna-7B, Vicuna-13B e Llama3-8B. Inoltre, MoA riduce i divari di capacità tra modelli sparsi e densi, diminuendo il calo massimo di prestazioni relative dal 9%-36% a meno del 5% su due benchmark di comprensione di contesti lunghi. MoA ottiene una riduzione della memoria GPU di 1,2-1,4 volte e aumenta il throughput di decodifica di 5,5-6,7 volte per i modelli densi da 7B e 13B su una singola GPU, con un impatto minimo sulle prestazioni.
English
Sparse attention can effectively mitigate the significant memory and
throughput demands of Large Language Models (LLMs) in long contexts. Existing
methods typically employ a uniform sparse attention mask, applying the same
sparse pattern across different attention heads and input lengths. However,
this uniform approach fails to capture the diverse attention patterns inherent
in LLMs, ignoring their distinct accuracy-latency trade-offs. To address this
challenge, we propose the Mixture of Attention (MoA), which automatically
tailors distinct sparse attention configurations to different heads and layers.
MoA constructs and navigates a search space of various attention patterns and
their scaling rules relative to input sequence lengths. It profiles the model,
evaluates potential configurations, and pinpoints the optimal sparse attention
compression plan. MoA adapts to varying input sizes, revealing that some
attention heads expand their focus to accommodate longer sequences, while other
heads consistently concentrate on fixed-length local contexts. Experiments show
that MoA increases the effective context length by 3.9times with the same
average attention span, boosting retrieval accuracy by 1.5-7.1times over the
uniform-attention baseline across Vicuna-7B, Vicuna-13B, and Llama3-8B models.
Moreover, MoA narrows the capability gaps between sparse and dense models,
reducing the maximum relative performance drop from 9%-36% to within 5%
across two long-context understanding benchmarks. MoA achieves a
1.2-1.4times GPU memory reduction and boosts decode throughput by 5.5-6.7
times for 7B and 13B dense models on a single GPU, with minimal impact on
performance.