ChatPaper.aiChatPaper

Het ontkoppelen van hoeken en sterkte in Low-rank Adaptatie

Decoupling Angles and Strength in Low-rank Adaptation

March 23, 2025
Auteurs: Massimo Bini, Leander Girrbach, Zeynep Akata
cs.AI

Samenvatting

Parameter-Efficient FineTuning (PEFT)-methoden hebben recentelijk aanzienlijke populariteit gewonnen dankzij de brede beschikbaarheid van grootschalige voorgetrainde modellen. Deze methoden maken een snelle aanpassing aan downstream-taken mogelijk tegen minimale rekenkosten. Populaire finetuning-methoden zoals LoRA vertonen echter beperkte robuustheid als het gaat om hyperparameterkeuzes of uitgebreide trainingsregimes, wat optimale prestaties 'out-of-the-box' in de weg staat. In tegenstelling hiermee bieden gebonden benaderingen, zoals ETHER, grotere robuustheid, maar zijn ze beperkt tot extreem laag-rang aanpassingen en vaste sterkte-transformaties, wat hun aanpassingsvermogen vermindert. In dit werk stellen we Decoupled Low-rank Adaptation (DeLoRA) voor, een nieuwe finetuning-methode die leerbare laag-rang matrices normaliseert en schaalt. Door de afstand van de transformatie te begrenzen, ontkoppelt DeLoRA effectief het hoekleren van de aanpassingssterkte, wat de robuustheid verbetert zonder in te leveren op prestaties. Door evaluaties op onderwerpgestuurde beeldgeneratie, natuurlijke taalverwerking en instructie-afstemming, tonen we aan dat DeLoRA de prestaties van concurrerende PEFT-methoden evenaart of overtreft, terwijl het sterkere robuustheid vertoont. Code is beschikbaar op https://github.com/ExplainableML/DeLoRA.
English
Parameter-Efficient FineTuning (PEFT) methods have recently gained significant popularity thanks to the widespread availability of large-scale pretrained models. These methods allow for quick adaptation to downstream tasks with minimal computational cost. However, popular finetuning methods such as LoRA exhibit limited robustness when it comes to hyperparameter choices or extended training regimes, preventing optimal out-of-the-box performance. In contrast, bounded approaches, such as ETHER, provide greater robustness but are limited to extremely low-rank adaptations and fixed-strength transformations, reducing their adaptation expressive power. In this work, we propose Decoupled Low-rank Adaptation (DeLoRA), a novel finetuning method that normalizes and scales learnable low-rank matrices. By bounding the distance of the transformation, DeLoRA effectively decouples the angular learning from the adaptation strength, enhancing robustness without compromising performance. Through evaluations on subject-driven image generation, natural language understanding, and instruction tuning, we show that DeLoRA matches or surpasses performance of competing PEFT methods, while exhibiting stronger robustness. Code is available at https://github.com/ExplainableML/DeLoRA.

Summary

AI-Generated Summary

PDF42April 1, 2025