Desacoplamiento de Ángulos y Fuerza en la Adaptación de Bajo Rango
Decoupling Angles and Strength in Low-rank Adaptation
March 23, 2025
Autores: Massimo Bini, Leander Girrbach, Zeynep Akata
cs.AI
Resumen
Los métodos de ajuste fino eficiente en parámetros (PEFT, por sus siglas en inglés) han ganado recientemente una popularidad significativa gracias a la amplia disponibilidad de modelos preentrenados a gran escala. Estos métodos permiten una rápida adaptación a tareas posteriores con un costo computacional mínimo. Sin embargo, los métodos populares de ajuste fino, como LoRA, muestran una robustez limitada en cuanto a la elección de hiperparámetros o regímenes de entrenamiento prolongados, lo que impide un rendimiento óptimo inmediato. En contraste, enfoques acotados, como ETHER, ofrecen una mayor robustez pero están limitados a adaptaciones de rango extremadamente bajo y transformaciones de fuerza fija, reduciendo su poder expresivo de adaptación. En este trabajo, proponemos la Adaptación de Bajo Rango Desacoplada (DeLoRA), un novedoso método de ajuste fino que normaliza y escala matrices de bajo rango aprendibles. Al acotar la distancia de la transformación, DeLoRA desacopla efectivamente el aprendizaje angular de la fuerza de adaptación, mejorando la robustez sin comprometer el rendimiento. A través de evaluaciones en generación de imágenes guiada por temas, comprensión del lenguaje natural y ajuste por instrucciones, demostramos que DeLoRA iguala o supera el rendimiento de los métodos PEFT competidores, mostrando una mayor robustez. El código está disponible en https://github.com/ExplainableML/DeLoRA.
English
Parameter-Efficient FineTuning (PEFT) methods have recently gained
significant popularity thanks to the widespread availability of large-scale
pretrained models. These methods allow for quick adaptation to downstream tasks
with minimal computational cost. However, popular finetuning methods such as
LoRA exhibit limited robustness when it comes to hyperparameter choices or
extended training regimes, preventing optimal out-of-the-box performance. In
contrast, bounded approaches, such as ETHER, provide greater robustness but are
limited to extremely low-rank adaptations and fixed-strength transformations,
reducing their adaptation expressive power. In this work, we propose Decoupled
Low-rank Adaptation (DeLoRA), a novel finetuning method that normalizes and
scales learnable low-rank matrices. By bounding the distance of the
transformation, DeLoRA effectively decouples the angular learning from the
adaptation strength, enhancing robustness without compromising performance.
Through evaluations on subject-driven image generation, natural language
understanding, and instruction tuning, we show that DeLoRA matches or surpasses
performance of competing PEFT methods, while exhibiting stronger robustness.
Code is available at https://github.com/ExplainableML/DeLoRA.Summary
AI-Generated Summary