ChatPaper.aiChatPaper

Доменное инкрементное обучение на протяжении жизни в открытом мире

Domain Incremental Lifelong Learning in an Open World

May 11, 2023
Авторы: Yi Dai, Hao Lang, Yinhe Zheng, Bowen Yu, Fei Huang, Yongbin Li
cs.AI

Аннотация

Пожизненное обучение (LL) является важной способностью моделей обработки естественного языка (NLP) к непрерывному изучению новых задач. Подходы, основанные на архитектуре, считаются эффективными реализациями для моделей LL. Однако расширение предыдущих подходов на сценарии доменного инкрементального LL является нетривиальной задачей, поскольку они либо требуют доступа к идентификаторам задач на этапе тестирования, либо не могут обрабатывать образцы из неизвестных задач. В данной статье мы предлагаем Diana: динамическую модель пожизненного обучения, основанную на архитектуре, которая пытается изучить последовательность задач с использованием языковой модели, усиленной подсказками. В Diana используются четыре типа иерархически организованных подсказок для захвата знаний на разных уровнях детализации. В частности, мы выделяем подсказки на уровне задач для захвата специфических знаний, чтобы сохранить высокую производительность LL, и поддерживаем подсказки на уровне экземпляров для изучения знаний, общих для входных образцов, чтобы улучшить обобщающую способность модели. Кроме того, мы выделяем отдельные подсказки для явного моделирования неизвестных задач и вводим набор векторов ключей подсказок для облегчения обмена знаниями между задачами. Многочисленные эксперименты демонстрируют, что Diana превосходит современные модели LL, особенно в обработке неизвестных задач. Мы публикуем код и данные по адресу https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
English
Lifelong learning (LL) is an important ability for NLP models to learn new tasks continuously. Architecture-based approaches are reported to be effective implementations for LL models. However, it is non-trivial to extend previous approaches to domain incremental LL scenarios since they either require access to task identities in the testing phase or cannot handle samples from unseen tasks. In this paper, we propose Diana: a dynamic architecture-based lifelong learning model that tries to learn a sequence of tasks with a prompt-enhanced language model. Four types of hierarchically organized prompts are used in Diana to capture knowledge from different granularities. Specifically, we dedicate task-level prompts to capture task-specific knowledge to retain high LL performances and maintain instance-level prompts to learn knowledge shared across input samples to improve the model's generalization performance. Moreover, we dedicate separate prompts to explicitly model unseen tasks and introduce a set of prompt key vectors to facilitate knowledge sharing between tasks. Extensive experiments demonstrate that Diana outperforms state-of-the-art LL models, especially in handling unseen tasks. We release the code and data at https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/diana.
PDF12December 15, 2024