ChatPaper.aiChatPaper

Adattamento prima dell'Apprendimento Continuo

Adapt before Continual Learning

June 4, 2025
Autori: Aojun Lu, Tao Feng, Hangjie Yuan, Chunhui Ding, Yanan Sun
cs.AI

Abstract

L'Apprendimento Continuo (Continual Learning, CL) mira a consentire alle reti neurali di acquisire nuove conoscenze in modo incrementale (plasticità) mantenendo al contempo le conoscenze esistenti (stabilità). Sebbene i modelli pre-addestrati (Pre-trained Models, PTM) siano diventati fondamentali nel CL, gli approcci prevalenti congelano il backbone dei PTM per preservare la stabilità, limitandone la plasticità, specialmente quando si incontrano significativi gap di dominio nei compiti incrementali. Al contrario, il fine-tuning sequenziale dell'intero PTM rischia di causare un oblio catastrofico della conoscenza generalizzabile, evidenziando un critico compromesso tra stabilità e plasticità. Per affrontare questa sfida, proponiamo l'Adattamento dei PTM prima del processo principale di CL (ACL), un nuovo framework che perfeziona il backbone dei PTM attraverso una fase di adattamento plug-and-play prima di apprendere ogni nuovo compito con approcci CL esistenti (ad esempio, il prompt tuning). ACL migliora la plasticità allineando gli embedding con i loro prototipi di classe originali mentre li allontana dagli altri, dimostrando teoricamente ed empiricamente di bilanciare stabilità e plasticità. Esperimenti estesi dimostrano che ACL migliora significativamente le prestazioni del CL su vari benchmark e metodi integrati, offrendo una soluzione versatile per il CL basato su PTM.
English
Continual Learning (CL) seeks to enable neural networks to incrementally acquire new knowledge (plasticity) while retaining existing knowledge (stability). While pre-trained models (PTMs) have become pivotal in CL, prevailing approaches freeze the PTM backbone to preserve stability, limiting their plasticity, particularly when encountering significant domain gaps in incremental tasks. Conversely, sequentially finetuning the entire PTM risks catastrophic forgetting of generalizable knowledge, exposing a critical stability-plasticity trade-off. To address this challenge, we propose Adapting PTMs before the core CL process (ACL), a novel framework that refines the PTM backbone through a plug-and-play adaptation phase before learning each new task with existing CL approaches (e.g., prompt tuning). ACL enhances plasticity by aligning embeddings with their original class prototypes while distancing them from others, theoretically and empirically shown to balance stability and plasticity. Extensive experiments demonstrate that ACL significantly improves CL performance across benchmarks and integrated methods, offering a versatile solution for PTM-based CL.
PDF52June 5, 2025