ChatPaper.aiChatPaper

Desacoplamiento de Ángulos y Fuerza en la Adaptación de Bajo Rango

Decoupling Angles and Strength in Low-rank Adaptation

March 23, 2025
Autores: Massimo Bini, Leander Girrbach, Zeynep Akata
cs.AI

Resumen

Los métodos de ajuste fino eficiente en parámetros (PEFT, por sus siglas en inglés) han ganado recientemente una popularidad significativa gracias a la amplia disponibilidad de modelos preentrenados a gran escala. Estos métodos permiten una rápida adaptación a tareas posteriores con un costo computacional mínimo. Sin embargo, los métodos populares de ajuste fino, como LoRA, muestran una robustez limitada en cuanto a la elección de hiperparámetros o regímenes de entrenamiento prolongados, lo que impide un rendimiento óptimo inmediato. En contraste, enfoques acotados, como ETHER, ofrecen una mayor robustez pero están limitados a adaptaciones de rango extremadamente bajo y transformaciones de fuerza fija, reduciendo su poder expresivo de adaptación. En este trabajo, proponemos la Adaptación de Bajo Rango Desacoplada (DeLoRA), un novedoso método de ajuste fino que normaliza y escala matrices de bajo rango aprendibles. Al acotar la distancia de la transformación, DeLoRA desacopla efectivamente el aprendizaje angular de la fuerza de adaptación, mejorando la robustez sin comprometer el rendimiento. A través de evaluaciones en generación de imágenes guiada por temas, comprensión del lenguaje natural y ajuste por instrucciones, demostramos que DeLoRA iguala o supera el rendimiento de los métodos PEFT competidores, mostrando una mayor robustez. El código está disponible en https://github.com/ExplainableML/DeLoRA.
English
Parameter-Efficient FineTuning (PEFT) methods have recently gained significant popularity thanks to the widespread availability of large-scale pretrained models. These methods allow for quick adaptation to downstream tasks with minimal computational cost. However, popular finetuning methods such as LoRA exhibit limited robustness when it comes to hyperparameter choices or extended training regimes, preventing optimal out-of-the-box performance. In contrast, bounded approaches, such as ETHER, provide greater robustness but are limited to extremely low-rank adaptations and fixed-strength transformations, reducing their adaptation expressive power. In this work, we propose Decoupled Low-rank Adaptation (DeLoRA), a novel finetuning method that normalizes and scales learnable low-rank matrices. By bounding the distance of the transformation, DeLoRA effectively decouples the angular learning from the adaptation strength, enhancing robustness without compromising performance. Through evaluations on subject-driven image generation, natural language understanding, and instruction tuning, we show that DeLoRA matches or surpasses performance of competing PEFT methods, while exhibiting stronger robustness. Code is available at https://github.com/ExplainableML/DeLoRA.

Summary

AI-Generated Summary

PDF42April 1, 2025