ChatPaper.aiChatPaper

Deja Vu: Esparsidade Contextual para LLMs Eficientes no Momento da Inferência

Deja Vu: Contextual Sparsity for Efficient LLMs at Inference Time

October 26, 2023
Autores: Zichang Liu, Jue Wang, Tri Dao, Tianyi Zhou, Binhang Yuan, Zhao Song, Anshumali Shrivastava, Ce Zhang, Yuandong Tian, Christopher Re, Beidi Chen
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) com centenas de bilhões de parâmetros têm impulsionado uma nova onda de aplicações empolgantes de IA. No entanto, eles são computacionalmente caros no momento da inferência. A esparsidade é uma abordagem natural para reduzir esse custo, mas os métodos existentes ou exigem um retreinamento dispendioso, ou precisam abrir mão da capacidade de aprendizado contextual dos LLMs, ou não resultam em aceleração do tempo real em hardware moderno. Nós hipotetizamos que a esparsidade contextual, que são conjuntos pequenos e dependentes da entrada de cabeças de atenção e parâmetros MLP que produzem aproximadamente a mesma saída que o modelo denso para uma determinada entrada, pode resolver esses problemas. Mostramos que a esparsidade contextual existe, que pode ser prevista com precisão, e que podemos explorá-la para acelerar a inferência de LLMs em tempo real sem comprometer a qualidade ou a capacidade de aprendizado contextual dos LLMs. Com base nessas descobertas, propomos o DejaVu, um sistema que utiliza um algoritmo de baixo custo para prever a esparsidade contextual em tempo real, dado as entradas para cada camada, juntamente com uma implementação assíncrona e consciente do hardware que acelera a inferência de LLMs. Validamos que o DejaVu pode reduzir a latência de inferência do OPT-175B em mais de 2X em comparação com o FasterTransformer, estado da arte, e em mais de 6X em comparação com a implementação amplamente utilizada do Hugging Face, sem comprometer a qualidade do modelo. O código está disponível em https://github.com/FMInference/DejaVu.
English
Large language models (LLMs) with hundreds of billions of parameters have sparked a new wave of exciting AI applications. However, they are computationally expensive at inference time. Sparsity is a natural approach to reduce this cost, but existing methods either require costly retraining, have to forgo LLM's in-context learning ability, or do not yield wall-clock time speedup on modern hardware. We hypothesize that contextual sparsity, which are small, input-dependent sets of attention heads and MLP parameters that yield approximately the same output as the dense model for a given input, can address these issues. We show that contextual sparsity exists, that it can be accurately predicted, and that we can exploit it to speed up LLM inference in wall-clock time without compromising LLM's quality or in-context learning ability. Based on these insights, we propose DejaVu, a system that uses a low-cost algorithm to predict contextual sparsity on the fly given inputs to each layer, along with an asynchronous and hardware-aware implementation that speeds up LLM inference. We validate that DejaVu can reduce the inference latency of OPT-175B by over 2X compared to the state-of-the-art FasterTransformer, and over 6X compared to the widely used Hugging Face implementation, without compromising model quality. The code is available at https://github.com/FMInference/DejaVu.
PDF141February 7, 2026