継続学習の前の適応
Adapt before Continual Learning
June 4, 2025
著者: Aojun Lu, Tao Feng, Hangjie Yuan, Chunhui Ding, Yanan Sun
cs.AI
要旨
継続学習(Continual Learning, CL)は、ニューラルネットワークが既存の知識を保持しつつ(安定性)、新たな知識を段階的に獲得する能力(可塑性)を実現することを目指す。事前学習モデル(Pre-trained Models, PTMs)はCLにおいて重要な役割を果たしているが、既存のアプローチでは安定性を保つためにPTMのバックボーンを凍結することが一般的であり、これが特にドメインギャップが大きい増分タスクにおいて可塑性を制限する要因となっている。一方、PTM全体を逐次的にファインチューニングすると、汎化可能な知識の破壊的な忘却(catastrophic forgetting)が生じるリスクがあり、安定性と可塑性のトレードオフが顕在化する。この課題に対処するため、本研究では、コアCLプロセスの前にPTMを適応させる「Adapting PTMs before the core CL process(ACL)」という新たなフレームワークを提案する。ACLは、既存のCLアプローチ(例:プロンプトチューニング)を用いて各新タスクを学習する前に、プラグアンドプレイ型の適応フェーズを通じてPTMバックボーンを最適化する。ACLは、埋め込みを元のクラスプロトタイプに近づけつつ他のクラスから遠ざけることで可塑性を向上させ、理論的および実験的に安定性と可塑性のバランスを取ることが示されている。広範な実験により、ACLがベンチマークおよび統合手法においてCLの性能を大幅に向上させ、PTMベースのCLに対する汎用的なソリューションを提供することが実証された。
English
Continual Learning (CL) seeks to enable neural networks to incrementally
acquire new knowledge (plasticity) while retaining existing knowledge
(stability). While pre-trained models (PTMs) have become pivotal in CL,
prevailing approaches freeze the PTM backbone to preserve stability, limiting
their plasticity, particularly when encountering significant domain gaps in
incremental tasks. Conversely, sequentially finetuning the entire PTM risks
catastrophic forgetting of generalizable knowledge, exposing a critical
stability-plasticity trade-off. To address this challenge, we propose Adapting
PTMs before the core CL process (ACL), a novel framework that refines the PTM
backbone through a plug-and-play adaptation phase before learning each new task
with existing CL approaches (e.g., prompt tuning). ACL enhances plasticity by
aligning embeddings with their original class prototypes while distancing them
from others, theoretically and empirically shown to balance stability and
plasticity. Extensive experiments demonstrate that ACL significantly improves
CL performance across benchmarks and integrated methods, offering a versatile
solution for PTM-based CL.