ChatPaper.aiChatPaper

Tied-LoRA: Verbesserung der Parameter-Effizienz von LoRA durch Gewichtsverknüpfung

Tied-Lora: Enhacing parameter efficiency of LoRA with weight tying

November 16, 2023
Autoren: Adithya Renduchintala, Tugrul Konuk, Oleksii Kuchaiev
cs.AI

Zusammenfassung

Wir schlagen Tied-LoRA vor, ein einfaches Paradigma, das Gewichtsbindung und selektives Training nutzt, um die Parameter-Effizienz der Low-Rank-Adaptation (LoRA)-Methode weiter zu steigern. Unsere Untersuchungen umfassen alle möglichen Kombinationen von Parameter-Training/-Einfrieren in Verbindung mit Gewichtsbindung, um das optimale Gleichgewicht zwischen Leistung und der Anzahl der trainierbaren Parameter zu identifizieren. Durch Experimente, die eine Vielzahl von Aufgaben und zwei Basissprachmodelle abdecken, liefern wir Analysen, die Kompromisse zwischen Effizienz und Leistung aufzeigen. Unsere Experimente haben eine bestimmte Tied-LoRA-Konfiguration aufgedeckt, die sich dadurch auszeichnet, dass sie vergleichbare Leistungen über mehrere Aufgaben hinweg zeigt, während sie nur 13~\% der Parameter verwendet, die von der Standard-LoRA-Methode eingesetzt werden.
English
We propose Tied-LoRA, a simple paradigm utilizes weight tying and selective training to further increase parameter efficiency of the Low-rank adaptation (LoRA) method. Our investigations include all feasible combinations parameter training/freezing in conjunction with weight tying to identify the optimal balance between performance and the number of trainable parameters. Through experiments covering a variety of tasks and two base language models, we provide analysis revealing trade-offs between efficiency and performance. Our experiments uncovered a particular Tied-LoRA configuration that stands out by demonstrating comparable performance across several tasks while employing only 13~\% percent of parameters utilized by the standard LoRA method.
PDF160December 15, 2024