ChatPaper.aiChatPaper

RECALL: 계층적 모델 병합을 통한 표현 정렬 기반 파괴적 망각 완화

RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model Merging

October 23, 2025
저자: Bowen Wang, Haiyuan Wan, Liwen Shi, Chen Yang, Peng He, Yue Ma, Haochen Han, Wenhao Li, Tiao Tan, Yongjian Li, Fangming Liu, Yifan Gong, Sheng Zhang
cs.AI

초록

우리는 대규모 언어 모델(LLM)의 내부 표현이 학습된 지식의 신뢰할 수 있는 지표 역할을 한다는 사실을 밝히고, 과거 데이터에 접근하지 않고 지속 학습을 위한 새로운 표현 인식 모델 병합 프레임워크인 RECALL을 제안한다. RECALL은 군집화된 대표 샘플에 대한 계층별 은닉 표현으로 모델 간 유사성을 계산하고, 지식을 정렬하기 위해 적응형 계층적 매개변수 융합을 수행한다. 이러한 설계는 얕은 계층에서는 도메인 일반 특징을 보존하면서 깊은 계층에서는 작업별 적응이 가능하도록 한다. 작업 레이블이 필요하거나 성능 저하가 발생하는 기존 방법과 달리, RECALL은 원활한 다중 도메인 통합과 파괴적 망각에 대한 강력한 저항력을 달성한다. 5가지 NLP 작업과 다양한 지속 학습 시나리오에서 수행한 폭넓은 실험을 통해 RECALL이 지식 보존과 일반화 모두에서 기준선을 능가함을 보여주며, 진화하는 LLM을 위한 확장 가능하고 데이터 무관한 솔루션을 제공한다.
English
We unveil that internal representations in large language models (LLMs) serve as reliable proxies of learned knowledge, and propose RECALL, a novel representation-aware model merging framework for continual learning without access to historical data. RECALL computes inter-model similarity from layer-wise hidden representations over clustered typical samples, and performs adaptive, hierarchical parameter fusion to align knowledge across models. This design enables the preservation of domain-general features in shallow layers while allowing task-specific adaptation in deeper layers. Unlike prior methods that require task labels or incur performance trade-offs, RECALL achieves seamless multi-domain integration and strong resistance to catastrophic forgetting. Extensive experiments across five NLP tasks and multiple continual learning scenarios show that RECALL outperforms baselines in both knowledge retention and generalization, providing a scalable and data-free solution for evolving LLMs.
PDF111December 17, 2025