ChatPaper.aiChatPaper

Apprentissage par Transfert de Mémoire : Comment les Souvenirs sont Transférés entre Domaines chez les Agents de Codage

Memory Transfer Learning: How Memories are Transferred Across Domains in Coding Agents

April 15, 2026
Auteurs: Kangsan Kim, Minki Kang, Taeil Kim, Yanlai Yang, Mengye Ren, Sung Ju Hwang
cs.AI

Résumé

L'auto-évolution basée sur la mémoire est apparue comme un paradigme prometteur pour les agents de programmation. Cependant, les approches existantes limitent généralement l'utilisation de la mémoire à des domaines de tâches homogènes, ne parvenant pas à exploiter les fondations infrastructurelles partagées, telles que les environnements d'exécution et les langages de programmation, qui existent dans divers problèmes de programmation du monde réel. Pour remédier à cette limitation, nous étudions l'apprentissage par transfert de mémoire (MTL) en exploitant un pool de mémoire unifié provenant de domaines hétérogènes. Nous évaluons les performances sur 6 benchmarks de programmation en utilisant quatre représentations mémorielles, allant des traces concrètes aux insights abstraits. Nos expériences démontrent que la mémoire inter-domaines améliore les performances moyennes de 3,7 %, principalement en transférant des méta-connaissances, telles que des routines de validation, plutôt que du code spécifique à une tâche. Fait important, nous constatons que le niveau d'abstraction dicte la transférabilité ; les insights de haut niveau se généralisent bien, tandis que les traces de bas niveau induisent souvent un transfert négatif en raison d'une spécificité excessive. De plus, nous montrons que l'efficacité du transfert augmente avec la taille du pool de mémoire, et que la mémoire peut être transférée même entre différents modèles. Notre travail établit des principes de conception empiriques pour étendre l'utilisation de la mémoire au-delà des silos à domaine unique. Page du projet : https://memorytransfer.github.io/
English
Memory-based self-evolution has emerged as a promising paradigm for coding agents. However, existing approaches typically restrict memory utilization to homogeneous task domains, failing to leverage the shared infrastructural foundations, such as runtime environments and programming languages, that exist across diverse real-world coding problems. To address this limitation, we investigate Memory Transfer Learning (MTL) by harnessing a unified memory pool from heterogeneous domains. We evaluate performance across 6 coding benchmarks using four memory representations, ranging from concrete traces to abstract insights. Our experiments demonstrate that cross-domain memory improves average performance by 3.7\%, primarily by transferring meta-knowledge, such as validation routines, rather than task-specific code. Importantly, we find that abstraction dictates transferability; high-level insights generalize well, whereas low-level traces often induce negative transfer due to excessive specificity. Furthermore, we show that transfer effectiveness scales with the size of the memory pool, and memory can be transferred even between different models. Our work establishes empirical design principles for expanding memory utilization beyond single-domain silos. Project page: https://memorytransfer.github.io/
PDF231April 17, 2026