Adattamento prima dell'Apprendimento Continuo
Adapt before Continual Learning
June 4, 2025
Autori: Aojun Lu, Tao Feng, Hangjie Yuan, Chunhui Ding, Yanan Sun
cs.AI
Abstract
L'Apprendimento Continuo (Continual Learning, CL) mira a consentire alle reti neurali di acquisire nuove conoscenze in modo incrementale (plasticità) mantenendo al contempo le conoscenze esistenti (stabilità). Sebbene i modelli pre-addestrati (Pre-trained Models, PTM) siano diventati fondamentali nel CL, gli approcci prevalenti congelano il backbone dei PTM per preservare la stabilità, limitandone la plasticità, specialmente quando si incontrano significativi gap di dominio nei compiti incrementali. Al contrario, il fine-tuning sequenziale dell'intero PTM rischia di causare un oblio catastrofico della conoscenza generalizzabile, evidenziando un critico compromesso tra stabilità e plasticità. Per affrontare questa sfida, proponiamo l'Adattamento dei PTM prima del processo principale di CL (ACL), un nuovo framework che perfeziona il backbone dei PTM attraverso una fase di adattamento plug-and-play prima di apprendere ogni nuovo compito con approcci CL esistenti (ad esempio, il prompt tuning). ACL migliora la plasticità allineando gli embedding con i loro prototipi di classe originali mentre li allontana dagli altri, dimostrando teoricamente ed empiricamente di bilanciare stabilità e plasticità. Esperimenti estesi dimostrano che ACL migliora significativamente le prestazioni del CL su vari benchmark e metodi integrati, offrendo una soluzione versatile per il CL basato su PTM.
English
Continual Learning (CL) seeks to enable neural networks to incrementally
acquire new knowledge (plasticity) while retaining existing knowledge
(stability). While pre-trained models (PTMs) have become pivotal in CL,
prevailing approaches freeze the PTM backbone to preserve stability, limiting
their plasticity, particularly when encountering significant domain gaps in
incremental tasks. Conversely, sequentially finetuning the entire PTM risks
catastrophic forgetting of generalizable knowledge, exposing a critical
stability-plasticity trade-off. To address this challenge, we propose Adapting
PTMs before the core CL process (ACL), a novel framework that refines the PTM
backbone through a plug-and-play adaptation phase before learning each new task
with existing CL approaches (e.g., prompt tuning). ACL enhances plasticity by
aligning embeddings with their original class prototypes while distancing them
from others, theoretically and empirically shown to balance stability and
plasticity. Extensive experiments demonstrate that ACL significantly improves
CL performance across benchmarks and integrated methods, offering a versatile
solution for PTM-based CL.