ChatPaper.aiChatPaper

LLoCO: Обучение длинным контекстам в автономном режиме

LLoCO: Learning Long Contexts Offline

April 11, 2024
Авторы: Sijun Tan, Xiuyu Li, Shishir Patil, Ziyang Wu, Tianjun Zhang, Kurt Keutzer, Joseph E. Gonzalez, Raluca Ada Popa
cs.AI

Аннотация

Обработка длинных контекстов остается вызовом для больших языковых моделей (LLM) из-за квадратичной вычислительной и памяти исключительной нагрузки механизма самовнимания и значительных размеров кэша KV во время генерации. Мы предлагаем новый подход к решению этой проблемы путем обучения контекстов в автономном режиме через сжатие контекста и параметроэффективное донастройку в предметной области. Наш метод позволяет LLM создавать краткое представление исходного контекста и эффективно извлекать соответствующую информацию для точного ответа на вопросы. Мы представляем LLoCO, технику, которая объединяет сжатие контекста, извлечение и параметроэффективную донастройку с использованием LoRA. Наш подход расширяет эффективное окно контекста модели LLaMA2-7B на 4k токенов для обработки до 128k токенов. Мы оцениваем наш подход на нескольких наборах данных для вопросно-ответных задач с длинным контекстом, демонстрируя, что LLoCO значительно превосходит обучение в контексте, используя в 30 раз меньше токенов во время вывода. LLoCO достигает ускорения до 7.62 раз и существенно снижает стоимость ответов на вопросы в длинных документах, что делает его многообещающим решением для эффективной обработки длинных контекстов. Наш код общедоступен по адресу https://github.com/jeffreysijuntan/lloco.
English
Processing long contexts remains a challenge for large language models (LLMs) due to the quadratic computational and memory overhead of the self-attention mechanism and the substantial KV cache sizes during generation. We propose a novel approach to address this problem by learning contexts offline through context compression and in-domain parameter-efficient finetuning. Our method enables an LLM to create a concise representation of the original context and efficiently retrieve relevant information to answer questions accurately. We introduce LLoCO, a technique that combines context compression, retrieval, and parameter-efficient finetuning using LoRA. Our approach extends the effective context window of a 4k token LLaMA2-7B model to handle up to 128k tokens. We evaluate our approach on several long-context question-answering datasets, demonstrating that LLoCO significantly outperforms in-context learning while using 30times fewer tokens during inference. LLoCO achieves up to 7.62times speed-up and substantially reduces the cost of long document question answering, making it a promising solution for efficient long context processing. Our code is publicly available at https://github.com/jeffreysijuntan/lloco.

Summary

AI-Generated Summary

PDF232December 15, 2024