ChatPaper.aiChatPaper

言語モデルにおける継続的学習能力の解放

Unlocking Continual Learning Abilities in Language Models

June 25, 2024
著者: Wenyu Du, Shuang Cheng, Tongxu Luo, Zihan Qiu, Zeyu Huang, Ka Chun Cheung, Reynold Cheng, Jie Fu
cs.AI

要旨

言語モデル(LMs)は、印象的な性能と汎化能力を示します。しかし、LMsは継続学習(CL)における長期的な持続可能性を損なう「破滅的忘却」という課題に直面しています。既存のアプローチでは、通常、古いタスクデータやタスクごとの帰納的バイアスをLMsに組み込むことでこの問題に対処しています。しかし、古いデータや正確なタスク情報はしばしば利用不可能であったり、収集にコストがかかったりするため、現在のCLアプローチの利用可能性を妨げています。この制限に対処するため、我々はMIGU(MagnItude-based Gradient Updating for continual learning)を提案します。これは、リハーサル不要かつタスクラベル不要の手法で、LMsの線形層における出力の大きさが大きいパラメータのみを更新します。MIGUは、LMsの線形層における出力のL1正規化された大きさの分布が、異なるタスクデータを扱う際に異なるという観察に基づいています。この単純な制約を勾配更新プロセスに課すことで、LMsの内在的な振る舞いを活用し、その本来のCL能力を引き出すことができます。我々の実験では、MIGUが3つのLMアーキテクチャ(T5、RoBERTa、Llama2)すべてに普遍的に適用可能であり、4つのCLベンチマークにおける継続的ファインチューニングと継続的事前学習の設定で、最先端または同等の性能を発揮することを示しています。例えば、MIGUは、15タスクのCLベンチマークにおいて、従来のパラメータ効率的なファインチューニングベースラインに対して15.2%の平均精度向上をもたらします。MIGUはまた、既存の3つのCLタイプすべてとシームレスに統合して、さらに性能を向上させることもできます。コードはhttps://github.com/wenyudu/MIGU{this https URL}で公開されています。
English
Language models (LMs) exhibit impressive performance and generalization capabilities. However, LMs struggle with the persistent challenge of catastrophic forgetting, which undermines their long-term sustainability in continual learning (CL). Existing approaches usually address the issue by incorporating old task data or task-wise inductive bias into LMs. However, old data and accurate task information are often unavailable or costly to collect, hindering the availability of current CL approaches for LMs. To address this limitation, we introduce MIGU (MagnItude-based Gradient Updating for continual learning), a rehearsal-free and task-label-free method that only updates the model parameters with large magnitudes of output in LMs' linear layers. MIGU is based on our observation that the L1-normalized magnitude distribution of the output in LMs' linear layers is different when the LM models deal with different task data. By imposing this simple constraint on the gradient update process, we can leverage the inherent behaviors of LMs, thereby unlocking their innate CL abilities. Our experiments demonstrate that MIGU is universally applicable to all three LM architectures (T5, RoBERTa, and Llama2), delivering state-of-the-art or on-par performance across continual finetuning and continual pre-training settings on four CL benchmarks. For example, MIGU brings a 15.2% average accuracy improvement over conventional parameter-efficient finetuning baselines in a 15-task CL benchmark. MIGU can also seamlessly integrate with all three existing CL types to further enhance performance. Code is available at https://github.com/wenyudu/MIGU{this https URL}.

Summary

AI-Generated Summary

PDF311November 29, 2024