Deja Vu: Sparsità Contestuale per LLM Efficienti al Momento dell'Inferenza
Deja Vu: Contextual Sparsity for Efficient LLMs at Inference Time
October 26, 2023
Autori: Zichang Liu, Jue Wang, Tri Dao, Tianyi Zhou, Binhang Yuan, Zhao Song, Anshumali Shrivastava, Ce Zhang, Yuandong Tian, Christopher Re, Beidi Chen
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) con centinaia di miliardi di parametri hanno dato vita a una nuova ondata di applicazioni entusiasmanti nel campo dell'IA. Tuttavia, questi modelli sono computazionalmente costosi al momento dell'inferenza. La sparsità rappresenta un approccio naturale per ridurre tale costo, ma i metodi esistenti richiedono un costoso riaddestramento, devono rinunciare alla capacità di apprendimento contestuale degli LLM o non garantiscono un'accelerazione in termini di tempo reale sull'hardware moderno. Ipotesizziamo che la sparsità contestuale, ovvero piccoli insiemi di teste di attenzione e parametri MLP dipendenti dall'input che producono un output approssimativamente equivalente a quello del modello denso per un dato input, possa risolvere questi problemi. Dimostriamo che la sparsità contestuale esiste, che può essere prevista con precisione e che può essere sfruttata per accelerare l'inferenza degli LLM in tempo reale senza compromettere la qualità del modello o la sua capacità di apprendimento contestuale. Sulla base di queste intuizioni, proponiamo DejaVu, un sistema che utilizza un algoritmo a basso costo per prevedere la sparsità contestuale al volo in base agli input di ciascun livello, insieme a un'implementazione asincrona e consapevole dell'hardware che accelera l'inferenza degli LLM. Validiamo che DejaVu può ridurre la latenza di inferenza di OPT-175B di oltre 2 volte rispetto allo stato dell'arte di FasterTransformer e di oltre 6 volte rispetto all'implementazione ampiamente utilizzata di Hugging Face, senza compromettere la qualità del modello. Il codice è disponibile all'indirizzo https://github.com/FMInference/DejaVu.
English
Large language models (LLMs) with hundreds of billions of parameters have
sparked a new wave of exciting AI applications. However, they are
computationally expensive at inference time. Sparsity is a natural approach to
reduce this cost, but existing methods either require costly retraining, have
to forgo LLM's in-context learning ability, or do not yield wall-clock time
speedup on modern hardware. We hypothesize that contextual sparsity, which are
small, input-dependent sets of attention heads and MLP parameters that yield
approximately the same output as the dense model for a given input, can address
these issues. We show that contextual sparsity exists, that it can be
accurately predicted, and that we can exploit it to speed up LLM inference in
wall-clock time without compromising LLM's quality or in-context learning
ability. Based on these insights, we propose DejaVu, a system that uses a
low-cost algorithm to predict contextual sparsity on the fly given inputs to
each layer, along with an asynchronous and hardware-aware implementation that
speeds up LLM inference. We validate that DejaVu can reduce the inference
latency of OPT-175B by over 2X compared to the state-of-the-art
FasterTransformer, and over 6X compared to the widely used Hugging Face
implementation, without compromising model quality. The code is available at
https://github.com/FMInference/DejaVu.