ChatPaper.aiChatPaper

LLoCO: Apprendimento di Contesti Lunghi in Modalità Offline

LLoCO: Learning Long Contexts Offline

April 11, 2024
Autori: Sijun Tan, Xiuyu Li, Shishir Patil, Ziyang Wu, Tianjun Zhang, Kurt Keutzer, Joseph E. Gonzalez, Raluca Ada Popa
cs.AI

Abstract

Il processing di contesti lunghi rimane una sfida per i grandi modelli linguistici (LLM) a causa del sovraccarico computazionale e di memoria quadratico del meccanismo di self-attention e delle dimensioni sostanziali della cache KV durante la generazione. Proponiamo un approccio innovativo per affrontare questo problema, apprendendo i contesti offline attraverso la compressione del contesto e il fine-tuning efficiente in termini di parametri all'interno del dominio. Il nostro metodo consente a un LLM di creare una rappresentazione concisa del contesto originale e di recuperare in modo efficiente le informazioni rilevanti per rispondere con precisione alle domande. Introduciamo LLoCO, una tecnica che combina la compressione del contesto, il recupero e il fine-tuning efficiente in termini di parametri utilizzando LoRA. Il nostro approccio estende la finestra di contesto efficace di un modello LLaMA2-7B da 4k token per gestire fino a 128k token. Valutiamo il nostro approccio su diversi dataset di question-answering a contesto lungo, dimostrando che LLoCO supera significativamente l'apprendimento in-context utilizzando 30 volte meno token durante l'inferenza. LLoCO raggiunge un'accelerazione fino a 7,62 volte e riduce sostanzialmente il costo del question-answering su documenti lunghi, rendendolo una soluzione promettente per un'elaborazione efficiente di contesti lunghi. Il nostro codice è disponibile pubblicamente all'indirizzo https://github.com/jeffreysijuntan/lloco.
English
Processing long contexts remains a challenge for large language models (LLMs) due to the quadratic computational and memory overhead of the self-attention mechanism and the substantial KV cache sizes during generation. We propose a novel approach to address this problem by learning contexts offline through context compression and in-domain parameter-efficient finetuning. Our method enables an LLM to create a concise representation of the original context and efficiently retrieve relevant information to answer questions accurately. We introduce LLoCO, a technique that combines context compression, retrieval, and parameter-efficient finetuning using LoRA. Our approach extends the effective context window of a 4k token LLaMA2-7B model to handle up to 128k tokens. We evaluate our approach on several long-context question-answering datasets, demonstrating that LLoCO significantly outperforms in-context learning while using 30times fewer tokens during inference. LLoCO achieves up to 7.62times speed-up and substantially reduces the cost of long document question answering, making it a promising solution for efficient long context processing. Our code is publicly available at https://github.com/jeffreysijuntan/lloco.
PDF222December 15, 2024