Разблокирование способностей непрерывного обучения в языковых моделях
Unlocking Continual Learning Abilities in Language Models
June 25, 2024
Авторы: Wenyu Du, Shuang Cheng, Tongxu Luo, Zihan Qiu, Zeyu Huang, Ka Chun Cheung, Reynold Cheng, Jie Fu
cs.AI
Аннотация
Языковые модели (LMs) демонстрируют впечатляющую производительность и способность к обобщению. Однако LMs сталкиваются с постоянной проблемой катастрофического забывания, которое подрывает их долгосрочную устойчивость в непрерывном обучении (CL). Существующие подходы обычно решают проблему путем включения старых данных задачи или индуктивного смещения по задачам в LMs. Однако старые данные и точная информация о задаче часто недоступны или дороги в сборе, что затрудняет доступность текущих подходов CL для LMs. Для решения этого ограничения мы представляем MIGU (MagnItude-based Gradient Updating для непрерывного обучения), метод без повторений и без меток задач, который обновляет только параметры модели с большими величинами выхода в линейных слоях LMs. MIGU основан на нашем наблюдении, что нормализованное по L1 распределение величин выхода в линейных слоях LMs отличается, когда модели LM работают с разными данными задач. Применяя это простое ограничение к процессу обновления градиента, мы можем использовать врожденное поведение LMs, тем самым разблокируя их врожденные способности CL. Наши эксперименты показывают, что MIGU универсально применим ко всем трем архитектурам LM (T5, RoBERTa и Llama2), обеспечивая современную или сопоставимую производительность в области непрерывного донастройки и непрерывного предварительного обучения на четырех бенчмарках CL. Например, MIGU обеспечивает улучшение средней точности на 15,2% по сравнению с обычными базовыми методами эффективной настройки параметров в бенчмарке CL на 15 задачах. MIGU также может легко интегрироваться со всеми тремя существующими типами CL для дальнейшего улучшения производительности. Код доступен по адресу https://github.com/wenyudu/MIGU.
English
Language models (LMs) exhibit impressive performance and generalization
capabilities. However, LMs struggle with the persistent challenge of
catastrophic forgetting, which undermines their long-term sustainability in
continual learning (CL). Existing approaches usually address the issue by
incorporating old task data or task-wise inductive bias into LMs. However, old
data and accurate task information are often unavailable or costly to collect,
hindering the availability of current CL approaches for LMs. To address this
limitation, we introduce MIGU (MagnItude-based
Gradient Updating for continual learning), a
rehearsal-free and task-label-free method that only updates the model
parameters with large magnitudes of output in LMs' linear layers. MIGU is based
on our observation that the L1-normalized magnitude distribution of the output
in LMs' linear layers is different when the LM models deal with different task
data. By imposing this simple constraint on the gradient update process, we can
leverage the inherent behaviors of LMs, thereby unlocking their innate CL
abilities. Our experiments demonstrate that MIGU is universally applicable to
all three LM architectures (T5, RoBERTa, and Llama2), delivering
state-of-the-art or on-par performance across continual finetuning and
continual pre-training settings on four CL benchmarks. For example, MIGU brings
a 15.2% average accuracy improvement over conventional parameter-efficient
finetuning baselines in a 15-task CL benchmark. MIGU can also seamlessly
integrate with all three existing CL types to further enhance performance. Code
is available at https://github.com/wenyudu/MIGU{this https URL}.Summary
AI-Generated Summary