Deja Vu: Esparcidad Contextual para LLMs Eficientes en Tiempo de Inferencia
Deja Vu: Contextual Sparsity for Efficient LLMs at Inference Time
October 26, 2023
Autores: Zichang Liu, Jue Wang, Tri Dao, Tianyi Zhou, Binhang Yuan, Zhao Song, Anshumali Shrivastava, Ce Zhang, Yuandong Tian, Christopher Re, Beidi Chen
cs.AI
Resumen
Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) con cientos de miles de millones de parámetros han impulsado una nueva ola de aplicaciones emocionantes en IA. Sin embargo, estos modelos son computacionalmente costosos durante la inferencia. La esparsidad es un enfoque natural para reducir este costo, pero los métodos existentes requieren un costoso reentrenamiento, sacrifican la capacidad de aprendizaje en contexto de los LLMs o no logran acelerar el tiempo real en hardware moderno. Planteamos la hipótesis de que la esparsidad contextual, que consiste en conjuntos pequeños y dependientes de la entrada de cabezas de atención y parámetros MLP que producen aproximadamente la misma salida que el modelo denso para una entrada dada, puede abordar estos problemas. Demostramos que la esparsidad contextual existe, que puede predecirse con precisión y que podemos aprovecharla para acelerar la inferencia de LLMs en tiempo real sin comprometer la calidad del modelo ni su capacidad de aprendizaje en contexto. Basándonos en estas ideas, proponemos DejaVu, un sistema que utiliza un algoritmo de bajo costo para predecir la esparsidad contextual sobre la marcha según las entradas de cada capa, junto con una implementación asíncrona y consciente del hardware que acelera la inferencia de LLMs. Validamos que DejaVu puede reducir la latencia de inferencia de OPT-175B en más de 2X en comparación con el estado del arte FasterTransformer, y en más de 6X en comparación con la implementación ampliamente utilizada de Hugging Face, sin comprometer la calidad del modelo. El código está disponible en https://github.com/FMInference/DejaVu.
English
Large language models (LLMs) with hundreds of billions of parameters have
sparked a new wave of exciting AI applications. However, they are
computationally expensive at inference time. Sparsity is a natural approach to
reduce this cost, but existing methods either require costly retraining, have
to forgo LLM's in-context learning ability, or do not yield wall-clock time
speedup on modern hardware. We hypothesize that contextual sparsity, which are
small, input-dependent sets of attention heads and MLP parameters that yield
approximately the same output as the dense model for a given input, can address
these issues. We show that contextual sparsity exists, that it can be
accurately predicted, and that we can exploit it to speed up LLM inference in
wall-clock time without compromising LLM's quality or in-context learning
ability. Based on these insights, we propose DejaVu, a system that uses a
low-cost algorithm to predict contextual sparsity on the fly given inputs to
each layer, along with an asynchronous and hardware-aware implementation that
speeds up LLM inference. We validate that DejaVu can reduce the inference
latency of OPT-175B by over 2X compared to the state-of-the-art
FasterTransformer, and over 6X compared to the widely used Hugging Face
implementation, without compromising model quality. The code is available at
https://github.com/FMInference/DejaVu.