ChatPaper.aiChatPaper

RandLoRA : Ajustement fin efficace en termes de paramètres à rang complet de grands modèles

RandLoRA: Full-rank parameter-efficient fine-tuning of large models

February 3, 2025
Auteurs: Paul Albert, Frederic Z. Zhang, Hemanth Saratchandran, Cristian Rodriguez-Opazo, Anton van den Hengel, Ehsan Abbasnejad
cs.AI

Résumé

L'Adaptation à Rang Faible (LoRA) et ses variantes ont montré des résultats impressionnants en réduisant le nombre de paramètres entraînables et les besoins en mémoire des grands réseaux de transformers tout en maintenant les performances de fine-tuning. Cependant, la nature à rang faible de la mise à jour des poids limite intrinsèquement la puissance de représentation des modèles fine-tunés, compromettant potentiellement les performances sur des tâches complexes. Cela soulève une question cruciale : lorsque l'on observe un écart de performance entre LoRA et le fine-tuning standard, est-ce dû au nombre réduit de paramètres entraînables ou à la déficience du rang ? Ce document vise à répondre à cette question en introduisant RandLoRA, une méthode efficace en termes de paramètres qui effectue des mises à jour à rang complet en utilisant des combinaisons linéaires apprises de matrices aléatoires à rang faible et non entraînables. Notre méthode limite le nombre de paramètres entraînables en restreignant l'optimisation aux matrices de mise à l'échelle diagonale appliquées aux matrices aléatoires fixes. Cela nous permet de surmonter efficacement les limitations à rang faible tout en maintenant l'efficacité en termes de paramètres et de mémoire pendant l'entraînement. À travers une expérimentation approfondie sur des référentiels de vision, de langage et de vision-langage, nous évaluons systématiquement les limitations de LoRA et des méthodes de base aléatoires existantes. Nos résultats révèlent que les mises à jour à rang complet sont bénéfiques pour les tâches de vision et de langage individuellement, et encore plus pour les tâches de vision-langage, où RandLoRA réduit significativement - voire élimine parfois - l'écart de performance entre le fine-tuning standard et LoRA, démontrant son efficacité.
English
Low-Rank Adaptation (LoRA) and its variants have shown impressive results in reducing the number of trainable parameters and memory requirements of large transformer networks while maintaining fine-tuning performance. However, the low-rank nature of the weight update inherently limits the representation power of fine-tuned models, potentially compromising performance on complex tasks. This raises a critical question: when a performance gap between LoRA and standard fine-tuning is observed, is it due to the reduced number of trainable parameters or the rank deficiency? This paper aims to answer this question by introducing RandLoRA, a parameter-efficient method that performs full-rank updates using a learned linear combinations of low-rank, non-trainable random matrices. Our method limits the number of trainable parameters by restricting optimization to diagonal scaling matrices applied to the fixed random matrices. This allows us to effectively overcome the low-rank limitations while maintaining parameter and memory efficiency during training. Through extensive experimentation across vision, language, and vision-language benchmarks, we systematically evaluate the limitations of LoRA and existing random basis methods. Our findings reveal that full-rank updates are beneficial across vision and language tasks individually, and even more so for vision-language tasks, where RandLoRA significantly reduces -- and sometimes eliminates -- the performance gap between standard fine-tuning and LoRA, demonstrating its efficacy.

Summary

AI-Generated Summary

PDF93February 5, 2025