ChatPaper.aiChatPaper

Adaptar antes do Aprendizado Contínuo

Adapt before Continual Learning

June 4, 2025
Autores: Aojun Lu, Tao Feng, Hangjie Yuan, Chunhui Ding, Yanan Sun
cs.AI

Resumo

O Aprendizado Contínuo (CL, do inglês Continual Learning) visa capacitar redes neurais a adquirir novos conhecimentos de forma incremental (plasticidade) enquanto mantêm o conhecimento existente (estabilidade). Embora modelos pré-treinados (PTMs, do inglês Pre-trained Models) tenham se tornado fundamentais no CL, as abordagens predominantes congelam o backbone do PTM para preservar a estabilidade, limitando sua plasticidade, especialmente ao enfrentar lacunas significativas de domínio em tarefas incrementais. Por outro lado, ajustar sequencialmente todo o PTM corre o risco de causar esquecimento catastrófico de conhecimentos generalizáveis, expondo um crítico trade-off entre estabilidade e plasticidade. Para enfrentar esse desafio, propomos o Ajuste de PTMs antes do processo central de CL (ACL, do inglês Adapting PTMs before the core CL process), um novo framework que refina o backbone do PTM por meio de uma fase de adaptação plug-and-play antes de aprender cada nova tarefa com abordagens de CL existentes (por exemplo, ajuste de prompts). O ACL aprimora a plasticidade ao alinhar embeddings com seus protótipos de classe originais, enquanto os distancia de outros, mostrando-se teórica e empiricamente eficaz para equilibrar estabilidade e plasticidade. Experimentos extensivos demonstram que o ACL melhora significativamente o desempenho do CL em benchmarks e métodos integrados, oferecendo uma solução versátil para CL baseado em PTMs.
English
Continual Learning (CL) seeks to enable neural networks to incrementally acquire new knowledge (plasticity) while retaining existing knowledge (stability). While pre-trained models (PTMs) have become pivotal in CL, prevailing approaches freeze the PTM backbone to preserve stability, limiting their plasticity, particularly when encountering significant domain gaps in incremental tasks. Conversely, sequentially finetuning the entire PTM risks catastrophic forgetting of generalizable knowledge, exposing a critical stability-plasticity trade-off. To address this challenge, we propose Adapting PTMs before the core CL process (ACL), a novel framework that refines the PTM backbone through a plug-and-play adaptation phase before learning each new task with existing CL approaches (e.g., prompt tuning). ACL enhances plasticity by aligning embeddings with their original class prototypes while distancing them from others, theoretically and empirically shown to balance stability and plasticity. Extensive experiments demonstrate that ACL significantly improves CL performance across benchmarks and integrated methods, offering a versatile solution for PTM-based CL.
PDF52June 5, 2025