Apprendimento Continuo Incrementale per Dominio in un Mondo Aperto
Domain Incremental Lifelong Learning in an Open World
May 11, 2023
Autori: Yi Dai, Hao Lang, Yinhe Zheng, Bowen Yu, Fei Huang, Yongbin Li
cs.AI
Abstract
L'apprendimento continuo (Lifelong Learning, LL) è un'abilità cruciale per i modelli di NLP per apprendere nuovi compiti in modo continuativo. Gli approcci basati sull'architettura si sono dimostrati implementazioni efficaci per i modelli di LL. Tuttavia, estendere i precedenti approcci a scenari di LL incrementale per dominio non è banale, poiché richiedono l'accesso alle identità dei compiti durante la fase di test o non sono in grado di gestire campioni provenienti da compiti non visti. In questo articolo, proponiamo Diana: un modello di apprendimento continuo basato su un'architettura dinamica che cerca di apprendere una sequenza di compiti utilizzando un modello linguistico potenziato da prompt. In Diana vengono utilizzati quattro tipi di prompt organizzati gerarchicamente per catturare conoscenze a diverse granularità. Nello specifico, dedichiamo prompt a livello di compito per catturare conoscenze specifiche del compito, al fine di mantenere alte prestazioni di LL, e manteniamo prompt a livello di istanza per apprendere conoscenze condivise tra i campioni di input, migliorando così le prestazioni di generalizzazione del modello. Inoltre, dedichiamo prompt separati per modellare esplicitamente compiti non visti e introduciamo un insieme di vettori chiave per facilitare la condivisione di conoscenze tra i compiti. Esperimenti estensivi dimostrano che Diana supera i modelli di LL all'avanguardia, specialmente nella gestione di compiti non visti. Rilasciamo il codice e i dati all'indirizzo https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
English
Lifelong learning (LL) is an important ability for NLP models to learn new
tasks continuously. Architecture-based approaches are reported to be effective
implementations for LL models. However, it is non-trivial to extend previous
approaches to domain incremental LL scenarios since they either require access
to task identities in the testing phase or cannot handle samples from unseen
tasks. In this paper, we propose Diana: a
dynamic architecture-based
lifelong learning model that tries to learn a sequence
of tasks with a prompt-enhanced language model. Four types of hierarchically
organized prompts are used in Diana to capture knowledge from different
granularities. Specifically, we dedicate task-level prompts to capture
task-specific knowledge to retain high LL performances and maintain
instance-level prompts to learn knowledge shared across input samples to
improve the model's generalization performance. Moreover, we dedicate separate
prompts to explicitly model unseen tasks and introduce a set of prompt key
vectors to facilitate knowledge sharing between tasks. Extensive experiments
demonstrate that Diana outperforms state-of-the-art LL models, especially in
handling unseen tasks. We release the code and data at
https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.