Apprendimento per Trasferimento della Memoria: Come i Ricordi Vengono Trasferiti tra Domini negli Agenti di Codifica
Memory Transfer Learning: How Memories are Transferred Across Domains in Coding Agents
April 15, 2026
Autori: Kangsan Kim, Minki Kang, Taeil Kim, Yanlai Yang, Mengye Ren, Sung Ju Hwang
cs.AI
Abstract
L'auto-evoluzione basata sulla memoria è emersa come un paradigma promettente per gli agenti di programmazione. Tuttavia, gli approcci esistenti tipicamente limitano l'utilizzo della memoria a domini di task omogenei, non riuscendo a sfruttare le fondamenta infrastrutturali condivise, come ambienti di runtime e linguaggi di programmazione, che esistono tra diversi problemi di programmazione del mondo reale. Per affrontare questa limitazione, noi investigiamo il Transfer Learning della Memoria (MTL) sfruttando un pool di memoria unificato proveniente da domini eterogenei. Valutiamo le prestazioni su 6 benchmark di programmazione utilizzando quattro rappresentazioni della memoria, che spaziano da tracce concrete a insight astratti. I nostri esperimenti dimostrano che la memoria cross-dominio migliora le prestazioni medie del 3,7%, principalmente trasferendo meta-conoscenze, come routine di validazione, piuttosto che codice specifico per il task. È importante notare che abbiamo scoperto che l'astrazione determina la trasferibilità; gli insight di alto livello si generalizzano bene, mentre le tracce di basso livello spesso inducono un transfer negativo a causa di un'eccessiva specificità. Inoltre, mostriamo che l'efficacia del transfer scala con la dimensione del pool di memoria, e che la memoria può essere trasferita anche tra modelli diversi. Il nostro lavoro stabilisce principi di progettazione empirici per espandere l'utilizzo della memoria oltre i silos a dominio singolo. Pagina del progetto: https://memorytransfer.github.io/
English
Memory-based self-evolution has emerged as a promising paradigm for coding agents. However, existing approaches typically restrict memory utilization to homogeneous task domains, failing to leverage the shared infrastructural foundations, such as runtime environments and programming languages, that exist across diverse real-world coding problems. To address this limitation, we investigate Memory Transfer Learning (MTL) by harnessing a unified memory pool from heterogeneous domains. We evaluate performance across 6 coding benchmarks using four memory representations, ranging from concrete traces to abstract insights. Our experiments demonstrate that cross-domain memory improves average performance by 3.7\%, primarily by transferring meta-knowledge, such as validation routines, rather than task-specific code. Importantly, we find that abstraction dictates transferability; high-level insights generalize well, whereas low-level traces often induce negative transfer due to excessive specificity. Furthermore, we show that transfer effectiveness scales with the size of the memory pool, and memory can be transferred even between different models. Our work establishes empirical design principles for expanding memory utilization beyond single-domain silos. Project page: https://memorytransfer.github.io/