Transferencia de Aprendizaje de Memoria: Cómo se Transfieren los Recuerdos entre Dominios en Agentes de Codificación
Memory Transfer Learning: How Memories are Transferred Across Domains in Coding Agents
April 15, 2026
Autores: Kangsan Kim, Minki Kang, Taeil Kim, Yanlai Yang, Mengye Ren, Sung Ju Hwang
cs.AI
Resumen
La auto-evolución basada en memoria ha surgido como un paradigma prometedor para los agentes de programación. Sin embargo, los enfoques existentes suelen restringir la utilización de la memoria a dominios de tareas homogéneos, sin aprovechar los fundamentos infraestructurales compartidos, como los entornos de ejecución y los lenguajes de programación, que existen en diversos problemas de programación del mundo real. Para abordar esta limitación, investigamos el Aprendizaje por Transferencia de Memoria (MTL) aprovechando un banco de memoria unificado de dominios heterogéneos. Evaluamos el rendimiento en 6 benchmarks de programación utilizando cuatro representaciones de memoria, que van desde trazas concretas hasta insights abstractos. Nuestros experimentos demuestran que la memoria entre dominios mejora el rendimiento promedio en un 3,7 %, principalmente mediante la transferencia de meta-conocimiento, como rutinas de validación, en lugar de código específico de la tarea. Es importante destacar que encontramos que la abstracción determina la transferibilidad; los insights de alto nivel se generalizan bien, mientras que las trazas de bajo nivel a menudo inducen una transferencia negativa debido a su excesiva especificidad. Además, mostramos que la efectividad de la transferencia escala con el tamaño del banco de memoria, y que la memoria puede transferirse incluso entre modelos diferentes. Nuestro trabajo establece principios de diseño empíricos para expandir la utilización de la memoria más allá de los silos de un solo dominio. Página del proyecto: https://memorytransfer.github.io/
English
Memory-based self-evolution has emerged as a promising paradigm for coding agents. However, existing approaches typically restrict memory utilization to homogeneous task domains, failing to leverage the shared infrastructural foundations, such as runtime environments and programming languages, that exist across diverse real-world coding problems. To address this limitation, we investigate Memory Transfer Learning (MTL) by harnessing a unified memory pool from heterogeneous domains. We evaluate performance across 6 coding benchmarks using four memory representations, ranging from concrete traces to abstract insights. Our experiments demonstrate that cross-domain memory improves average performance by 3.7\%, primarily by transferring meta-knowledge, such as validation routines, rather than task-specific code. Importantly, we find that abstraction dictates transferability; high-level insights generalize well, whereas low-level traces often induce negative transfer due to excessive specificity. Furthermore, we show that transfer effectiveness scales with the size of the memory pool, and memory can be transferred even between different models. Our work establishes empirical design principles for expanding memory utilization beyond single-domain silos. Project page: https://memorytransfer.github.io/