ChatPaper.aiChatPaper

Aprendizaje Continuo Incremental de Dominios en un Mundo Abierto

Domain Incremental Lifelong Learning in an Open World

May 11, 2023
Autores: Yi Dai, Hao Lang, Yinhe Zheng, Bowen Yu, Fei Huang, Yongbin Li
cs.AI

Resumen

El aprendizaje continuo (LL, por sus siglas en inglés) es una habilidad importante para que los modelos de PNL aprendan nuevas tareas de manera continua. Los enfoques basados en arquitecturas han demostrado ser implementaciones efectivas para modelos de LL. Sin embargo, no es trivial extender los enfoques anteriores a escenarios de LL incremental por dominio, ya que estos requieren acceso a las identidades de las tareas en la fase de prueba o no pueden manejar muestras de tareas no vistas. En este artículo, proponemos Diana: un modelo de aprendizaje continuo basado en arquitectura dinámica que intenta aprender una secuencia de tareas con un modelo de lenguaje mejorado mediante prompts. En Diana se utilizan cuatro tipos de prompts organizados jerárquicamente para capturar conocimiento en diferentes niveles de granularidad. Específicamente, dedicamos prompts a nivel de tarea para capturar conocimiento específico de cada tarea y así mantener un alto rendimiento en LL, y mantenemos prompts a nivel de instancia para aprender el conocimiento compartido entre muestras de entrada y mejorar el rendimiento de generalización del modelo. Además, dedicamos prompts separados para modelar explícitamente tareas no vistas e introducimos un conjunto de vectores clave de prompts para facilitar el intercambio de conocimiento entre tareas. Experimentos exhaustivos demuestran que Diana supera a los modelos de LL más avanzados, especialmente en el manejo de tareas no vistas. Publicamos el código y los datos en https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
English
Lifelong learning (LL) is an important ability for NLP models to learn new tasks continuously. Architecture-based approaches are reported to be effective implementations for LL models. However, it is non-trivial to extend previous approaches to domain incremental LL scenarios since they either require access to task identities in the testing phase or cannot handle samples from unseen tasks. In this paper, we propose Diana: a dynamic architecture-based lifelong learning model that tries to learn a sequence of tasks with a prompt-enhanced language model. Four types of hierarchically organized prompts are used in Diana to capture knowledge from different granularities. Specifically, we dedicate task-level prompts to capture task-specific knowledge to retain high LL performances and maintain instance-level prompts to learn knowledge shared across input samples to improve the model's generalization performance. Moreover, we dedicate separate prompts to explicitly model unseen tasks and introduce a set of prompt key vectors to facilitate knowledge sharing between tasks. Extensive experiments demonstrate that Diana outperforms state-of-the-art LL models, especially in handling unseen tasks. We release the code and data at https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
PDF12December 15, 2024