ChatPaper.aiChatPaper

Anpassung vor kontinuierlichem Lernen

Adapt before Continual Learning

June 4, 2025
Autoren: Aojun Lu, Tao Feng, Hangjie Yuan, Chunhui Ding, Yanan Sun
cs.AI

Zusammenfassung

Continual Learning (CL) zielt darauf ab, neuronale Netzwerke in die Lage zu versetzen, neues Wissen inkrementell zu erwerben (Plastizität), während bestehendes Wissen erhalten bleibt (Stabilität). Obwohl vortrainierte Modelle (PTMs) in CL eine zentrale Rolle spielen, frieren gängige Ansätze das PTM-Backbone ein, um die Stabilität zu bewahren, was jedoch ihre Plastizität einschränkt, insbesondere bei signifikanten Domänenunterschieden in inkrementellen Aufgaben. Umgekehrt birgt das sequenzielle Feinabstimmen des gesamten PTMs das Risiko eines katastrophalen Vergessens von generalisierbarem Wissen, was einen kritischen Kompromiss zwischen Stabilität und Plastizität offenlegt. Um diese Herausforderung zu bewältigen, schlagen wir Adapting PTMs before the core CL process (ACL) vor, ein neuartiges Framework, das das PTM-Backbone durch eine Plug-and-Play-Anpassungsphase verfeinert, bevor jede neue Aufgabe mit bestehenden CL-Ansätzen (z. B. Prompt Tuning) gelernt wird. ACL verbessert die Plastizität, indem es Embeddings mit ihren ursprünglichen Klassenprototypen ausrichtet und sie gleichzeitig von anderen distanziert, was theoretisch und empirisch gezeigt wurde, um Stabilität und Plastizität auszugleichen. Umfangreiche Experimente zeigen, dass ACL die CL-Leistung über Benchmarks und integrierte Methoden hinweg signifikant verbessert und somit eine vielseitige Lösung für PTM-basiertes CL bietet.
English
Continual Learning (CL) seeks to enable neural networks to incrementally acquire new knowledge (plasticity) while retaining existing knowledge (stability). While pre-trained models (PTMs) have become pivotal in CL, prevailing approaches freeze the PTM backbone to preserve stability, limiting their plasticity, particularly when encountering significant domain gaps in incremental tasks. Conversely, sequentially finetuning the entire PTM risks catastrophic forgetting of generalizable knowledge, exposing a critical stability-plasticity trade-off. To address this challenge, we propose Adapting PTMs before the core CL process (ACL), a novel framework that refines the PTM backbone through a plug-and-play adaptation phase before learning each new task with existing CL approaches (e.g., prompt tuning). ACL enhances plasticity by aligning embeddings with their original class prototypes while distancing them from others, theoretically and empirically shown to balance stability and plasticity. Extensive experiments demonstrate that ACL significantly improves CL performance across benchmarks and integrated methods, offering a versatile solution for PTM-based CL.
PDF52June 5, 2025