ChatPaper.aiChatPaper

O Cirurgião de Modelos de Linguagem de Grande Escala (LLM Surgeon)

The LLM Surgeon

December 28, 2023
Autores: Tycho F. A. van der Ouderaa, Markus Nagel, Mart van Baalen, Yuki M. Asano, Tijmen Blankevoort
cs.AI

Resumo

Os modelos de linguagem state-of-the-art estão se tornando cada vez maiores em um esforço para alcançar o melhor desempenho em grandes corpora de dados textuais disponíveis. No entanto, o tamanho considerável das arquiteturas Transformer dificulta a implantação dos modelos dentro de restrições computacionais, ambientais ou específicas de dispositivos. Exploramos a compressão baseada em dados de modelos pré-treinados existentes como uma alternativa ao treinamento de modelos menores do zero. Para isso, escalamos aproximações de curvatura fatoradas por Kronecker da paisagem de perda alvo para grandes modelos de linguagem. Ao fazer isso, podemos calcular tanto a alocação dinâmica de estruturas que podem ser removidas quanto as atualizações dos pesos restantes que levam em consideração a remoção. Fornecemos um framework geral para poda não estruturada, semiestruturada e estruturada e aprimoramos as atualizações de pesos para capturar mais correlações entre os pesos, mantendo a eficiência computacional. Experimentalmente, nosso método pode podar linhas e colunas de uma variedade de modelos OPT e do Llamav2-7B em 20%-30%, com uma perda de desempenho insignificante, e alcançar resultados state-of-the-art em poda não estruturada e semiestruturada de grandes modelos de linguagem.
English
State-of-the-art language models are becoming increasingly large in an effort to achieve the highest performance on large corpora of available textual data. However, the sheer size of the Transformer architectures makes it difficult to deploy models within computational, environmental or device-specific constraints. We explore data-driven compression of existing pretrained models as an alternative to training smaller models from scratch. To do so, we scale Kronecker-factored curvature approximations of the target loss landscape to large language models. In doing so, we can compute both the dynamic allocation of structures that can be removed as well as updates of remaining weights that account for the removal. We provide a general framework for unstructured, semi-structured and structured pruning and improve upon weight updates to capture more correlations between weights, while remaining computationally efficient. Experimentally, our method can prune rows and columns from a range of OPT models and Llamav2-7B by 20%-30%, with a negligible loss in performance, and achieve state-of-the-art results in unstructured and semi-structured pruning of large language models.
PDF91February 7, 2026