ChatPaper.aiChatPaper

RECALL: Representatie-uitgelijnde verlichting van catastrofale vergetelheid via hiërarchisch model-samenvoegen

RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model Merging

October 23, 2025
Auteurs: Bowen Wang, Haiyuan Wan, Liwen Shi, Chen Yang, Peng He, Yue Ma, Haochen Han, Wenhao Li, Tiao Tan, Yongjian Li, Fangming Liu, Yifan Gong, Sheng Zhang
cs.AI

Samenvatting

Wij tonen aan dat interne representaties in grote taalmodellen (LLM's) betrouwbare indicatoren zijn van aangeleerde kennis, en introduceren RECALL, een nieuw representatiebewust modelmergingsraamwerk voor continu leren zonder toegang tot historische data. RECALL berekent inter-modelgelijkenis op basis van gelaagde verborgen representaties over gegroepeerde typische voorbeelden, en voert adaptieve, hiërarchische parameterfusie uit om kennis tussen modellen af te stemmen. Dit ontwerp maakt het mogelijk domeingenerieke kenmerken in ondiepe lagen te behouden, terwijl taakspecifieke aanpassing in diepere lagen mogelijk blijft. In tegenstelling tot eerdere methoden die taaklabels vereisen of prestatieverlies met zich meebrengen, bereikt RECALL naadloze multi-domeïntegratie en sterke weerstand tegen catastrofaal vergeten. Uitgebreide experimenten met vijf NLP-taken en meerdere continu-leerscenario's tonen aan dat RECALL baseline-methoden overtreft in zowel kennisretentie als generalisatie, en biedt zo een schaalbare en datavrije oplossing voor de evolutie van LLM's.
English
We unveil that internal representations in large language models (LLMs) serve as reliable proxies of learned knowledge, and propose RECALL, a novel representation-aware model merging framework for continual learning without access to historical data. RECALL computes inter-model similarity from layer-wise hidden representations over clustered typical samples, and performs adaptive, hierarchical parameter fusion to align knowledge across models. This design enables the preservation of domain-general features in shallow layers while allowing task-specific adaptation in deeper layers. Unlike prior methods that require task labels or incur performance trade-offs, RECALL achieves seamless multi-domain integration and strong resistance to catastrophic forgetting. Extensive experiments across five NLP tasks and multiple continual learning scenarios show that RECALL outperforms baselines in both knowledge retention and generalization, providing a scalable and data-free solution for evolving LLMs.
PDF111December 17, 2025