ChatPaper.aiChatPaper

Tied-LoRA: 重み共有によるLoRAのパラメータ効率の向上

Tied-Lora: Enhacing parameter efficiency of LoRA with weight tying

November 16, 2023
著者: Adithya Renduchintala, Tugrul Konuk, Oleksii Kuchaiev
cs.AI

要旨

本研究では、Low-rank adaptation(LoRA)手法のパラメータ効率をさらに向上させるため、重み共有と選択的学習を活用したシンプルなパラダイム「Tied-LoRA」を提案する。我々の調査では、重み共有と組み合わせたすべての可能なパラメータ学習/凍結の組み合わせを検証し、性能と学習可能なパラメータ数の最適なバランスを特定した。複数のタスクと2つの基盤言語モデルを対象とした実験を通じて、効率性と性能のトレードオフを明らかにする分析を提供する。実験の結果、標準的なLoRA手法が使用するパラメータのわずか13%しか使用しないにもかかわらず、複数のタスクにおいて同等の性能を発揮する特定のTied-LoRA構成が明らかになった。
English
We propose Tied-LoRA, a simple paradigm utilizes weight tying and selective training to further increase parameter efficiency of the Low-rank adaptation (LoRA) method. Our investigations include all feasible combinations parameter training/freezing in conjunction with weight tying to identify the optimal balance between performance and the number of trainable parameters. Through experiments covering a variety of tasks and two base language models, we provide analysis revealing trade-offs between efficiency and performance. Our experiments uncovered a particular Tied-LoRA configuration that stands out by demonstrating comparable performance across several tasks while employing only 13~\% percent of parameters utilized by the standard LoRA method.
PDF160December 15, 2024