ChatPaper.aiChatPaper

Domäneninkrementelles kontinuierliches Lernen in einer offenen Welt

Domain Incremental Lifelong Learning in an Open World

May 11, 2023
Autoren: Yi Dai, Hao Lang, Yinhe Zheng, Bowen Yu, Fei Huang, Yongbin Li
cs.AI

Zusammenfassung

Lebenslanges Lernen (LL) ist eine wichtige Fähigkeit für NLP-Modelle, um kontinuierlich neue Aufgaben zu erlernen. Architekturbasierte Ansätze gelten als effektive Implementierungen für LL-Modelle. Es ist jedoch nicht trivial, frühere Ansätze auf domäneninkrementelle LL-Szenarien zu erweitern, da sie entweder den Zugriff auf Aufgabenidentitäten in der Testphase erfordern oder keine Proben von unbekannten Aufgaben verarbeiten können. In diesem Artikel schlagen wir Diana vor: ein dynamisches, architekturbasiertes Modell für lebenslanges Lernen, das versucht, eine Sequenz von Aufgaben mit einem prompt-verbesserten Sprachmodell zu erlernen. In Diana werden vier Typen hierarchisch organisierter Prompts verwendet, um Wissen aus verschiedenen Granularitäten zu erfassen. Insbesondere widmen wir Aufgabenebenen-Prompts der Erfassung aufgabenspezifischen Wissens, um hohe LL-Leistungen zu erhalten, und Instanzenebenen-Prompts dem Erlernen von Wissen, das über Eingabeproben hinweg geteilt wird, um die Generalisierungsleistung des Modells zu verbessern. Darüber hinaus widmen wir separate Prompts der expliziten Modellierung unbekannter Aufgaben und führen eine Reihe von Prompt-Schlüsselvektoren ein, um die Wissensweitergabe zwischen Aufgaben zu erleichtern. Umfangreiche Experimente zeigen, dass Diana state-of-the-art LL-Modelle übertrifft, insbesondere bei der Handhabung unbekannter Aufgaben. Wir veröffentlichen den Code und die Daten unter https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
English
Lifelong learning (LL) is an important ability for NLP models to learn new tasks continuously. Architecture-based approaches are reported to be effective implementations for LL models. However, it is non-trivial to extend previous approaches to domain incremental LL scenarios since they either require access to task identities in the testing phase or cannot handle samples from unseen tasks. In this paper, we propose Diana: a dynamic architecture-based lifelong learning model that tries to learn a sequence of tasks with a prompt-enhanced language model. Four types of hierarchically organized prompts are used in Diana to capture knowledge from different granularities. Specifically, we dedicate task-level prompts to capture task-specific knowledge to retain high LL performances and maintain instance-level prompts to learn knowledge shared across input samples to improve the model's generalization performance. Moreover, we dedicate separate prompts to explicitly model unseen tasks and introduce a set of prompt key vectors to facilitate knowledge sharing between tasks. Extensive experiments demonstrate that Diana outperforms state-of-the-art LL models, especially in handling unseen tasks. We release the code and data at https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
PDF12December 15, 2024