ChatPaper.aiChatPaper

Heroverweging van compressie: Gereduceerde-ordemodellering van latente kenmerken in grote taalmodelle

Rethinking Compression: Reduced Order Modelling of Latent Features in Large Language Models

December 12, 2023
Auteurs: Arnav Chavan, Nahush Lele, Deepak Gupta
cs.AI

Samenvatting

Vanwege de aanzienlijke omvang van Large Language Models (LLM's) blijkt de directe toepassing van conventionele compressiemethoden onpraktisch. De rekenkundige eisen die gepaard gaan met zelfs minimale gradientupdates vormen uitdagingen, met name op consumentenhardware. Dit artikel introduceert een innovatieve benadering voor de parametrische en praktische compressie van LLM's, gebaseerd op reduced order modelling, wat een lage-rang-decompositie binnen de feature space en herparameterisatie in de weight space inhoudt. Opmerkelijk is dat deze compressietechniek laaggewijs werkt, waardoor een GPU-apparaat overbodig wordt en het mogelijk wordt om modellen op miljardenschaal te comprimeren binnen strikte beperkingen van zowel geheugen als tijd. Onze methode vertegenwoordigt een significante vooruitgang in modelcompressie door gebruik te maken van matrixdecompositie, waarbij superieure effectiviteit wordt aangetoond in vergelijking met de heersende state-of-the-art gestructureerde pruning-methode.
English
Due to the substantial scale of Large Language Models (LLMs), the direct application of conventional compression methodologies proves impractical. The computational demands associated with even minimal gradient updates present challenges, particularly on consumer-grade hardware. This paper introduces an innovative approach for the parametric and practical compression of LLMs based on reduced order modelling, which entails low-rank decomposition within the feature space and re-parameterization in the weight space. Notably, this compression technique operates in a layer-wise manner, obviating the need for a GPU device and enabling the compression of billion-scale models within stringent constraints of both memory and time. Our method represents a significant advancement in model compression by leveraging matrix decomposition, demonstrating superior efficacy compared to the prevailing state-of-the-art structured pruning method.
PDF171December 15, 2024