ChatPaper.aiChatPaper

Adaptar antes del Aprendizaje Continuo

Adapt before Continual Learning

June 4, 2025
Autores: Aojun Lu, Tao Feng, Hangjie Yuan, Chunhui Ding, Yanan Sun
cs.AI

Resumen

El Aprendizaje Continuo (AC) busca permitir que las redes neuronales adquieran nuevos conocimientos de manera incremental (plasticidad) mientras retienen los conocimientos existentes (estabilidad). Aunque los modelos preentrenados (MPTs) se han convertido en elementos clave en el AC, los enfoques predominantes congelan la estructura principal del MPT para preservar la estabilidad, lo que limita su plasticidad, especialmente cuando se enfrentan a brechas significativas de dominio en tareas incrementales. Por el contrario, ajustar secuencialmente todo el MPT conlleva el riesgo de olvido catastrófico del conocimiento generalizable, lo que expone un equilibrio crítico entre estabilidad y plasticidad. Para abordar este desafío, proponemos Adaptar MPTs antes del proceso central de AC (ACA), un marco novedoso que refina la estructura principal del MPT mediante una fase de adaptación plug-and-play antes de aprender cada nueva tarea con enfoques de AC existentes (por ejemplo, ajuste por indicaciones). ACA mejora la plasticidad al alinear los embeddings con sus prototipos de clase originales mientras los distancia de otros, lo que, tanto teórica como empíricamente, demuestra equilibrar la estabilidad y la plasticidad. Experimentos extensos muestran que ACA mejora significativamente el rendimiento del AC en diversos puntos de referencia y métodos integrados, ofreciendo una solución versátil para el AC basado en MPTs.
English
Continual Learning (CL) seeks to enable neural networks to incrementally acquire new knowledge (plasticity) while retaining existing knowledge (stability). While pre-trained models (PTMs) have become pivotal in CL, prevailing approaches freeze the PTM backbone to preserve stability, limiting their plasticity, particularly when encountering significant domain gaps in incremental tasks. Conversely, sequentially finetuning the entire PTM risks catastrophic forgetting of generalizable knowledge, exposing a critical stability-plasticity trade-off. To address this challenge, we propose Adapting PTMs before the core CL process (ACL), a novel framework that refines the PTM backbone through a plug-and-play adaptation phase before learning each new task with existing CL approaches (e.g., prompt tuning). ACL enhances plasticity by aligning embeddings with their original class prototypes while distancing them from others, theoretically and empirically shown to balance stability and plasticity. Extensive experiments demonstrate that ACL significantly improves CL performance across benchmarks and integrated methods, offering a versatile solution for PTM-based CL.
PDF52June 5, 2025