ChatPaper.aiChatPaper

Il Chirurgo LLM

The LLM Surgeon

December 28, 2023
Autori: Tycho F. A. van der Ouderaa, Markus Nagel, Mart van Baalen, Yuki M. Asano, Tijmen Blankevoort
cs.AI

Abstract

I modelli linguistici all'avanguardia stanno diventando sempre più grandi nel tentativo di ottenere le massime prestazioni su ampi corpora di dati testuali disponibili. Tuttavia, le dimensioni considerevoli delle architetture Transformer rendono difficile il deployment dei modelli entro vincoli computazionali, ambientali o specifici del dispositivo. Esploriamo la compressione guidata dai dati di modelli pre-addestrati esistenti come alternativa all'addestramento di modelli più piccoli da zero. A tal fine, scaliamo approssimazioni della curvatura fattorizzata di Kronecker del paesaggio della funzione di perdita target per i grandi modelli linguistici. In questo modo, possiamo calcolare sia l'allocazione dinamica delle strutture che possono essere rimosse sia gli aggiornamenti dei pesi rimanenti che tengono conto della rimozione. Forniamo un framework generale per il pruning non strutturato, semi-strutturato e strutturato e miglioriamo gli aggiornamenti dei pesi per catturare più correlazioni tra i pesi, pur rimanendo computazionalmente efficienti. Sperimentalmente, il nostro metodo può potare righe e colonne da una gamma di modelli OPT e Llamav2-7B del 20%-30%, con una perdita trascurabile nelle prestazioni, e ottenere risultati all'avanguardia nel pruning non strutturato e semi-strutturato di grandi modelli linguistici.
English
State-of-the-art language models are becoming increasingly large in an effort to achieve the highest performance on large corpora of available textual data. However, the sheer size of the Transformer architectures makes it difficult to deploy models within computational, environmental or device-specific constraints. We explore data-driven compression of existing pretrained models as an alternative to training smaller models from scratch. To do so, we scale Kronecker-factored curvature approximations of the target loss landscape to large language models. In doing so, we can compute both the dynamic allocation of structures that can be removed as well as updates of remaining weights that account for the removal. We provide a general framework for unstructured, semi-structured and structured pruning and improve upon weight updates to capture more correlations between weights, while remaining computationally efficient. Experimentally, our method can prune rows and columns from a range of OPT models and Llamav2-7B by 20%-30%, with a negligible loss in performance, and achieve state-of-the-art results in unstructured and semi-structured pruning of large language models.
PDF91February 7, 2026