ChatPaper.aiChatPaper

Der LLM-Chirurg

The LLM Surgeon

December 28, 2023
Autoren: Tycho F. A. van der Ouderaa, Markus Nagel, Mart van Baalen, Yuki M. Asano, Tijmen Blankevoort
cs.AI

Zusammenfassung

State-of-the-art-Sprachmodelle werden zunehmend größer, um die höchste Leistung auf großen Korpora verfügbarer Textdaten zu erreichen. Die schiere Größe der Transformer-Architekturen erschwert jedoch die Bereitstellung der Modelle innerhalb von rechen-, umwelt- oder gerätespezifischen Einschränkungen. Wir untersuchen die datengetriebene Komprimierung bestehender vortrainierter Modelle als Alternative zum Training kleinerer Modelle von Grund auf. Dazu skalieren wir Kronecker-faktorisierte Krümmungsapproximationen der Zielfunktionslandschaft für große Sprachmodelle. Auf diese Weise können wir sowohl die dynamische Zuweisung von Strukturen, die entfernt werden können, als auch Aktualisierungen der verbleibenden Gewichte berechnen, die die Entfernung berücksichtigen. Wir stellen einen allgemeinen Rahmen für unstrukturiertes, semistrukturiertes und strukturiertes Pruning bereit und verbessern die Gewichtsaktualisierungen, um mehr Korrelationen zwischen den Gewichten zu erfassen, während wir recheneffizient bleiben. Experimentell kann unsere Methode Zeilen und Spalten einer Reihe von OPT-Modellen und Llamav2-7B um 20 %–30 % reduzieren, mit einem vernachlässigbaren Leistungsverlust, und erzielt state-of-the-art-Ergebnisse beim unstrukturierten und semistrukturierten Pruning großer Sprachmodelle.
English
State-of-the-art language models are becoming increasingly large in an effort to achieve the highest performance on large corpora of available textual data. However, the sheer size of the Transformer architectures makes it difficult to deploy models within computational, environmental or device-specific constraints. We explore data-driven compression of existing pretrained models as an alternative to training smaller models from scratch. To do so, we scale Kronecker-factored curvature approximations of the target loss landscape to large language models. In doing so, we can compute both the dynamic allocation of structures that can be removed as well as updates of remaining weights that account for the removal. We provide a general framework for unstructured, semi-structured and structured pruning and improve upon weight updates to capture more correlations between weights, while remaining computationally efficient. Experimentally, our method can prune rows and columns from a range of OPT models and Llamav2-7B by 20%-30%, with a negligible loss in performance, and achieve state-of-the-art results in unstructured and semi-structured pruning of large language models.
PDF91December 15, 2024