ChatPaper.aiChatPaper

XC-Cache: Atendimento Cruzado a Contexto em Cache para Inferência Eficiente de LLM

XC-Cache: Cross-Attending to Cached Context for Efficient LLM Inference

April 23, 2024
Autores: João Monteiro, Étienne Marcotte, Pierre-André Noël, Valentina Zantedeschi, David Vázquez, Nicolas Chapados, Christopher Pal, Perouz Taslakian
cs.AI

Resumo

Abordagens de aprendizado em contexto (ICL, na sigla em inglês) geralmente utilizam técnicas de _prompting_ para condicionar a geração de modelos de linguagem _decoder-only_ com base em informações de referência. O processamento em tempo real de um contexto é ineficiente devido ao custo quadrático das operações de auto-atenção, tornando o armazenamento em cache desejável. No entanto, o armazenamento em cache dos estados do _transformer_ pode facilmente exigir quase tanto espaço quanto os parâmetros do modelo. Quando o contexto correto não é conhecido antecipadamente, o armazenamento em cache para ICL pode ser desafiador. Este trabalho aborda essas limitações ao introduzir modelos que, inspirados na arquitetura _encoder-decoder_, utilizam atenção cruzada para condicionar a geração em texto de referência sem o uso de _prompts_. Mais precisamente, aproveitamos modelos _decoder-only_ pré-treinados e treinamos apenas um pequeno número de camadas adicionais. Utilizamos tarefas de Pergunta-Resposta (QA) como um ambiente de teste para avaliar a capacidade de nossos modelos de realizar geração condicional e observamos que eles superam o ICL, são comparáveis a LLMs ajustados com _prompts_ e reduzem drasticamente a pegada de espaço em relação ao armazenamento padrão de chave-valor (KV) em duas ordens de magnitude.
English
In-context learning (ICL) approaches typically leverage prompting to condition decoder-only language model generation on reference information. Just-in-time processing of a context is inefficient due to the quadratic cost of self-attention operations, and caching is desirable. However, caching transformer states can easily require almost as much space as the model parameters. When the right context isn't known in advance, caching ICL can be challenging. This work addresses these limitations by introducing models that, inspired by the encoder-decoder architecture, use cross-attention to condition generation on reference text without the prompt. More precisely, we leverage pre-trained decoder-only models and only train a small number of added layers. We use Question-Answering (QA) as a testbed to evaluate the ability of our models to perform conditional generation and observe that they outperform ICL, are comparable to fine-tuned prompted LLMs, and drastically reduce the space footprint relative to standard KV caching by two orders of magnitude.
PDF111December 15, 2024