ChatPaper.aiChatPaper

GraLoRA: Granulaire Laag-Rang Aanpassing voor Parameter-Efficiënte Fijnafstemming

GraLoRA: Granular Low-Rank Adaptation for Parameter-Efficient Fine-Tuning

May 26, 2025
Auteurs: Yeonjoon Jung, Daehyun Ahn, Hyungjun Kim, Taesu Kim, Eunhyeok Park
cs.AI

Samenvatting

Low-Rank Adaptation (LoRA) is een populaire methode voor parameter-efficiënte fine-tuning (PEFT) van generatieve modellen, gewaardeerd om zijn eenvoud en effectiviteit. Ondanks recente verbeteringen, kampt LoRA nog steeds met een fundamentele beperking: overfitting wanneer het bottleneck wordt verbreed. Het presteert het beste bij ranks 32-64, maar de nauwkeurigheid stagneert of daalt bij hogere ranks, en blijft nog steeds achter bij de prestaties van volledige fine-tuning (FFT). Wij identificeren de oorzaak als LoRA's structurele bottleneck, die gradientverstrengeling introduceert bij de niet-gerelateerde invoerkanalen en de gradientpropagatie vervormt. Om dit aan te pakken, introduceren we een nieuwe structuur, Granular Low-Rank Adaptation (GraLoRA), die gewichtsmatrices opdeelt in subblokken, elk met zijn eigen low-rank adapter. Met verwaarloosbare reken- of opslagkosten overkomt GraLoRA de beperkingen van LoRA, verhoogt het effectief de representatiecapaciteit en benadert het het gedrag van FFT beter. Experimenten op benchmarks voor codegeneratie en gezond verstand redeneren tonen aan dat GraLoRA consistent beter presteert dan LoRA en andere baselines, met een absolute winst tot +8,5% in Pass@1 op HumanEval+. Deze verbeteringen gelden voor verschillende modelgroottes en rankinstellingen, waardoor GraLoRA een schaalbare en robuuste oplossing is voor PEFT. Code, data en scripts zijn beschikbaar op https://github.com/SqueezeBits/GraLoRA.git.
English
Low-Rank Adaptation (LoRA) is a popular method for parameter-efficient fine-tuning (PEFT) of generative models, valued for its simplicity and effectiveness. Despite recent enhancements, LoRA still suffers from a fundamental limitation: overfitting when the bottleneck is widened. It performs best at ranks 32-64, yet its accuracy stagnates or declines at higher ranks, still falling short of full fine-tuning (FFT) performance. We identify the root cause as LoRA's structural bottleneck, which introduces gradient entanglement to the unrelated input channels and distorts gradient propagation. To address this, we introduce a novel structure, Granular Low-Rank Adaptation (GraLoRA) that partitions weight matrices into sub-blocks, each with its own low-rank adapter. With negligible computational or storage cost, GraLoRA overcomes LoRA's limitations, effectively increases the representational capacity, and more closely approximates FFT behavior. Experiments on code generation and commonsense reasoning benchmarks show that GraLoRA consistently outperforms LoRA and other baselines, achieving up to +8.5% absolute gain in Pass@1 on HumanEval+. These improvements hold across model sizes and rank settings, making GraLoRA a scalable and robust solution for PEFT. Code, data, and scripts are available at https://github.com/SqueezeBits/GraLoRA.git
PDF352May 28, 2025