ChatPaper.aiChatPaper

Zebra: Extensión de la Ventana de Contexto con Atención Local-Global Agrupada por Capas

Zebra: Extending Context Window with Layerwise Grouped Local-Global Attention

December 14, 2023
Autores: Kaiqiang Song, Xiaoyang Wang, Sangwoo Cho, Xiaoman Pan, Dong Yu
cs.AI

Resumen

Este artículo presenta un enfoque novedoso para mejorar las capacidades de los Modelos de Lenguaje de Gran Escala (LLMs) en el procesamiento y comprensión de secuencias de texto extensas, un aspecto crítico en aplicaciones que requieren una comprensión profunda y síntesis de grandes volúmenes de información. Reconociendo los desafíos inherentes en la extensión de la ventana de contexto para los LLMs, principalmente basados en la arquitectura Transformer, proponemos una nueva arquitectura de modelo, denominada Zebra. Esta arquitectura gestiona eficientemente los problemas de complejidad cuadrática en tiempo y memoria asociados con la atención completa en el Transformer mediante el uso de capas de atención local-global agrupadas. Nuestro modelo, similar a las rayas alternas de una cebra, equilibra capas de atención local y global, reduciendo significativamente los requisitos computacionales y el consumo de memoria. Se llevan a cabo experimentos exhaustivos, que incluyen preentrenamiento desde cero, continuación de entrenamiento de adaptación de contexto largo y ajuste de instrucciones largas, para evaluar el rendimiento de Zebra. Los resultados muestran que Zebra logra un rendimiento comparable o superior en puntos de referencia de secuencias cortas y largas, al mismo tiempo que mejora la eficiencia en el entrenamiento y la inferencia.
English
This paper introduces a novel approach to enhance the capabilities of Large Language Models (LLMs) in processing and understanding extensive text sequences, a critical aspect in applications requiring deep comprehension and synthesis of large volumes of information. Recognizing the inherent challenges in extending the context window for LLMs, primarily built on Transformer architecture, we propose a new model architecture, referred to as Zebra. This architecture efficiently manages the quadratic time and memory complexity issues associated with full attention in the Transformer by employing grouped local-global attention layers. Our model, akin to a zebra's alternating stripes, balances local and global attention layers, significantly reducing computational requirements and memory consumption. Comprehensive experiments, including pretraining from scratch, continuation of long context adaptation training, and long instruction tuning, are conducted to evaluate the Zebra's performance. The results show that Zebra achieves comparable or superior performance on both short and long sequence benchmarks, while also enhancing training and inference efficiency.
PDF151December 15, 2024