ChatPaper.aiChatPaper

Aprendizado Contínuo Incremental de Domínio em um Mundo Aberto

Domain Incremental Lifelong Learning in an Open World

May 11, 2023
Autores: Yi Dai, Hao Lang, Yinhe Zheng, Bowen Yu, Fei Huang, Yongbin Li
cs.AI

Resumo

A aprendizagem contínua (LL, do inglês Lifelong Learning) é uma habilidade importante para modelos de PLN (Processamento de Linguagem Natural) aprenderem novas tarefas de forma contínua. Abordagens baseadas em arquitetura são relatadas como implementações eficazes para modelos de LL. No entanto, é desafiador estender abordagens anteriores para cenários de LL incremental de domínio, pois elas exigem acesso a identidades de tarefas na fase de teste ou não conseguem lidar com amostras de tarefas não vistas. Neste artigo, propomos Diana: um modelo de aprendizagem contínua baseado em arquitetura dinâmica que busca aprender uma sequência de tarefas com um modelo de linguagem aprimorado por prompts. Quatro tipos de prompts organizados hierarquicamente são usados em Diana para capturar conhecimento em diferentes granularidades. Especificamente, dedicamos prompts em nível de tarefa para capturar conhecimento específico da tarefa, a fim de manter alto desempenho em LL, e prompts em nível de instância para aprender conhecimento compartilhado entre amostras de entrada, melhorando a generalização do modelo. Além disso, dedicamos prompts separados para modelar explicitamente tarefas não vistas e introduzimos um conjunto de vetores-chave de prompt para facilitar o compartilhamento de conhecimento entre tarefas. Experimentos extensivos demonstram que Diana supera os modelos de LL mais avançados, especialmente no tratamento de tarefas não vistas. Disponibilizamos o código e os dados em https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
English
Lifelong learning (LL) is an important ability for NLP models to learn new tasks continuously. Architecture-based approaches are reported to be effective implementations for LL models. However, it is non-trivial to extend previous approaches to domain incremental LL scenarios since they either require access to task identities in the testing phase or cannot handle samples from unseen tasks. In this paper, we propose Diana: a dynamic architecture-based lifelong learning model that tries to learn a sequence of tasks with a prompt-enhanced language model. Four types of hierarchically organized prompts are used in Diana to capture knowledge from different granularities. Specifically, we dedicate task-level prompts to capture task-specific knowledge to retain high LL performances and maintain instance-level prompts to learn knowledge shared across input samples to improve the model's generalization performance. Moreover, we dedicate separate prompts to explicitly model unseen tasks and introduce a set of prompt key vectors to facilitate knowledge sharing between tasks. Extensive experiments demonstrate that Diana outperforms state-of-the-art LL models, especially in handling unseen tasks. We release the code and data at https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
PDF12December 15, 2024