ChatPaper.aiChatPaper

Domeingericht Incrementeel Levenslang Leren in een Open Wereld

Domain Incremental Lifelong Learning in an Open World

May 11, 2023
Auteurs: Yi Dai, Hao Lang, Yinhe Zheng, Bowen Yu, Fei Huang, Yongbin Li
cs.AI

Samenvatting

Levenslang leren (LL) is een belangrijke vaardigheid voor NLP-modellen om continu nieuwe taken te leren. Architectuurgebaseerde benaderingen blijken effectieve implementaties te zijn voor LL-modellen. Het is echter niet eenvoudig om eerdere benaderingen uit te breiden naar domein-incrementele LL-scenario's, omdat ze ofwel toegang vereisen tot taakidentiteiten in de testfase, ofwel niet om kunnen gaan met voorbeelden van onbekende taken. In dit artikel stellen we Diana voor: een dynamisch architectuurgebaseerd levenslang leermodel dat probeert een reeks taken te leren met een prompt-versterkt taalmodel. Vier typen hiërarchisch georganiseerde prompts worden gebruikt in Diana om kennis op verschillende granulariteiten vast te leggen. Specifiek wijden we taakniveau-prompts toe om taakspecifieke kennis vast te leggen om hoge LL-prestaties te behouden en behouden we instantieniveau-prompts om kennis die wordt gedeeld tussen invoervoorbeelden te leren, om de generalisatieprestaties van het model te verbeteren. Bovendien wijden we aparte prompts toe om onbekende taken expliciet te modelleren en introduceren we een set prompt-sleutelvectoren om kennisdeling tussen taken te vergemakkelijken. Uitgebreide experimenten tonen aan dat Diana state-of-the-art LL-modellen overtreft, vooral in het omgaan met onbekende taken. We hebben de code en data vrijgegeven op https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
English
Lifelong learning (LL) is an important ability for NLP models to learn new tasks continuously. Architecture-based approaches are reported to be effective implementations for LL models. However, it is non-trivial to extend previous approaches to domain incremental LL scenarios since they either require access to task identities in the testing phase or cannot handle samples from unseen tasks. In this paper, we propose Diana: a dynamic architecture-based lifelong learning model that tries to learn a sequence of tasks with a prompt-enhanced language model. Four types of hierarchically organized prompts are used in Diana to capture knowledge from different granularities. Specifically, we dedicate task-level prompts to capture task-specific knowledge to retain high LL performances and maintain instance-level prompts to learn knowledge shared across input samples to improve the model's generalization performance. Moreover, we dedicate separate prompts to explicitly model unseen tasks and introduce a set of prompt key vectors to facilitate knowledge sharing between tasks. Extensive experiments demonstrate that Diana outperforms state-of-the-art LL models, especially in handling unseen tasks. We release the code and data at https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
PDF12December 15, 2024