ChatPaper.aiChatPaper

RAPPEL : Réduction de l'Oubli Catastrophique par Alignement des REPrésentations via Fusion Hiérarchique de Modèles

RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model Merging

October 23, 2025
papers.authors: Bowen Wang, Haiyuan Wan, Liwen Shi, Chen Yang, Peng He, Yue Ma, Haochen Han, Wenhao Li, Tiao Tan, Yongjian Li, Fangming Liu, Yifan Gong, Sheng Zhang
cs.AI

papers.abstract

Nous démontrons que les représentations internes des grands modèles de langage (LLM) constituent des indicateurs fiables des connaissances acquises, et proposons RECALL, un nouveau cadre de fusion de modèles sensible aux représentations pour l'apprentissage continu sans accès aux données historiques. RECALL calcule la similarité inter-modèle à partir des représentations cachées par couche sur des échantillons typiques groupés, et effectue une fusion hiérarchique adaptative des paramètres pour aligner les connaissances entre les modèles. Cette conception permet de préserver les caractéristiques générales du domaine dans les couches superficielles tout en autorisant l'adaptation spécifique aux tâches dans les couches profondes. Contrairement aux méthodes antérieures nécessitant des étiquettes de tâches ou entraînant des compromis de performance, RECALL réalise une intégration multi-domaine transparente et une forte résistance à l'oubli catastrophique. Des expériences approfondies sur cinq tâches de TAL et plusieurs scénarios d'apprentissage continu montrent que RECALL surpasse les méthodes de référence en matière de rétention des connaissances et de généralisation, offrant une solution évolutive et sans données pour le développement des LLM.
English
We unveil that internal representations in large language models (LLMs) serve as reliable proxies of learned knowledge, and propose RECALL, a novel representation-aware model merging framework for continual learning without access to historical data. RECALL computes inter-model similarity from layer-wise hidden representations over clustered typical samples, and performs adaptive, hierarchical parameter fusion to align knowledge across models. This design enables the preservation of domain-general features in shallow layers while allowing task-specific adaptation in deeper layers. Unlike prior methods that require task labels or incur performance trade-offs, RECALL achieves seamless multi-domain integration and strong resistance to catastrophic forgetting. Extensive experiments across five NLP tasks and multiple continual learning scenarios show that RECALL outperforms baselines in both knowledge retention and generalization, providing a scalable and data-free solution for evolving LLMs.
PDF111December 17, 2025