オープンワールドにおけるドメインインクリメンタルライフロングラーニング
Domain Incremental Lifelong Learning in an Open World
May 11, 2023
著者: Yi Dai, Hao Lang, Yinhe Zheng, Bowen Yu, Fei Huang, Yongbin Li
cs.AI
要旨
生涯学習(Lifelong Learning, LL)は、NLPモデルが新しいタスクを継続的に学習するための重要な能力です。アーキテクチャベースのアプローチは、LLモデルの効果的な実装として報告されています。しかし、以前のアプローチをドメインインクリメンタルなLLシナリオに拡張することは容易ではありません。なぜなら、それらはテストフェーズでタスク識別子へのアクセスを必要とするか、未見のタスクからのサンプルを処理できないためです。本論文では、Dianaを提案します。Dianaは、プロンプト拡張言語モデルを用いて一連のタスクを学習する動的アーキテクチャベースの生涯学習モデルです。Dianaでは、異なる粒度の知識を捉えるために、階層的に組織化された4種類のプロンプトが使用されます。具体的には、タスクレベルのプロンプトをタスク固有の知識を捉えるために割り当て、高いLL性能を維持し、インスタンスレベルのプロンプトを入力サンプル間で共有される知識を学習するために割り当て、モデルの汎化性能を向上させます。さらに、未見のタスクを明示的にモデル化するために別個のプロンプトを割り当て、タスク間の知識共有を促進するために一連のプロンプトキーベクトルを導入します。大規模な実験により、Dianaが特に未見のタスクの処理において、最先端のLLモデルを凌駕することが実証されています。コードとデータはhttps://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/dianaで公開しています。
English
Lifelong learning (LL) is an important ability for NLP models to learn new
tasks continuously. Architecture-based approaches are reported to be effective
implementations for LL models. However, it is non-trivial to extend previous
approaches to domain incremental LL scenarios since they either require access
to task identities in the testing phase or cannot handle samples from unseen
tasks. In this paper, we propose Diana: a
dynamic architecture-based
lifelong learning model that tries to learn a sequence
of tasks with a prompt-enhanced language model. Four types of hierarchically
organized prompts are used in Diana to capture knowledge from different
granularities. Specifically, we dedicate task-level prompts to capture
task-specific knowledge to retain high LL performances and maintain
instance-level prompts to learn knowledge shared across input samples to
improve the model's generalization performance. Moreover, we dedicate separate
prompts to explicitly model unseen tasks and introduce a set of prompt key
vectors to facilitate knowledge sharing between tasks. Extensive experiments
demonstrate that Diana outperforms state-of-the-art LL models, especially in
handling unseen tasks. We release the code and data at
https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.