ChatPaper.aiChatPaper

De Lottery LLM-hypothese: Heroverweging van Welke Vaardigheden LLM-compressie Moet Behouden?

The Lottery LLM Hypothesis, Rethinking What Abilities Should LLM Compression Preserve?

February 24, 2025
Auteurs: Zhenheng Tang, Xiang Liu, Qian Wang, Peijie Dong, Bingsheng He, Xiaowen Chu, Bo Li
cs.AI

Samenvatting

Gemotiveerd door het verminderen van de reken- en opslagkosten van LLM's, hebben modelcompressie en KV-cachecompressie veel aandacht gekregen van onderzoekers. Huidige methoden leggen echter vooral de nadruk op het behouden van de prestaties van gecomprimeerde LLM's, zoals gemeten aan de hand van perplexiteit of eenvoudige nauwkeurigheid bij taken zoals common sense kennisvragen en basis rekenkundig redeneren. In deze blog presenteren we een kort overzicht van recente vooruitgang in LLM's met betrekking tot retrieval-augmented generation, meerstaps redeneren, externe tools en computationele expressiviteit, die allemaal de prestaties van LLM's aanzienlijk verbeteren. Vervolgens stellen we een loterij-LLM-hypothese voor, die suggereert dat voor een gegeven LLM en taak er een kleinere loterij-LLM bestaat die met behulp van meerstaps redeneren en externe tools dezelfde prestaties kan leveren als het originele LLM. Op basis van het overzicht van de huidige vooruitgang in LLM's, bespreken en vatten we de essentiële capaciteiten samen die de loterij-LLM en KV-cachecompressie moeten bezitten, die momenteel over het hoofd worden gezien in bestaande methoden.
English
Motivated by reducing the computational and storage costs of LLMs, model compression and KV cache compression have attracted much attention from researchers. However, current methods predominantly emphasize maintaining the performance of compressed LLMs, as measured by perplexity or simple accuracy on tasks of common sense knowledge QA and basic arithmetic reasoning. In this blog, we present a brief review of recent advancements in LLMs related to retrieval-augmented generation, multi-step reasoning, external tools, and computational expressivity, all of which substantially enhance LLM performance. Then, we propose a lottery LLM hypothesis suggesting that for a given LLM and task, there exists a smaller lottery LLM capable of producing the same performance as the original LLM with the assistance of multi-step reasoning and external tools. Based on the review of current progress in LLMs, we discuss and summarize the essential capabilities that the lottery LLM and KV cache compression must possess, which are currently overlooked in existing methods.

Summary

AI-Generated Summary

PDF82February 26, 2025