Gedächtnis-Transferlernen: Wie Erinnerungen über Domänen hinweg in kodierenden Agenten übertragen werden
Memory Transfer Learning: How Memories are Transferred Across Domains in Coding Agents
April 15, 2026
Autoren: Kangsan Kim, Minki Kang, Taeil Kim, Yanlai Yang, Mengye Ren, Sung Ju Hwang
cs.AI
Zusammenfassung
Gedächtnisbasierte Selbstevolution hat sich als vielversprechendes Paradigma für Coding-Agenten etabliert. Bisherige Ansätze beschränken die Gedächtnisnutzung jedoch typischerweise auf homogene Aufgabenbereiche und nutzen die gemeinsamen infrastrukturellen Grundlagen, wie Laufzeitumgebungen und Programmiersprachen, die bei verschiedenen realen Programmierproblemen existieren, nicht aus. Um diese Einschränkung zu adressieren, untersuchen wir Memory Transfer Learning (MTL) durch die Nutzung eines einheitlichen Gedächtnispools aus heterogenen Domänen. Wir evaluieren die Leistung über 6 Programmier-Benchmarks hinweg mit vier Gedächtnisrepräsentationen, die von konkreten Ausführungsspuren bis zu abstrakten Erkenntnissen reichen. Unsere Experimente zeigen, dass domänenübergreifendes Gedächtnis die durchschnittliche Leistung um 3,7 % steigert, primär durch den Transfer von Meta-Wissen, wie etwa Validierungsroutinen, und nicht durch aufgabenspezifischen Code. Entscheidend ist, dass Abstraktion die Übertragbarkeit bestimmt; hochgradige Erkenntnisse generalisieren gut, während niedriggradige Spuren aufgrund ihrer übermäßigen Spezifität oft negativen Transfer verursachen. Des Weiteren zeigen wir, dass die Transferwirksamkeit mit der Größe des Gedächtnispools skaliert und dass Gedächtnis sogar zwischen verschiedenen Modellen übertragen werden kann. Unsere Arbeit etabliert empirische Designprinzipien für die Erweiterung der Gedächtnisnutzung über Einzeldomänen-Silos hinaus. Projektseite: https://memorytransfer.github.io/
English
Memory-based self-evolution has emerged as a promising paradigm for coding agents. However, existing approaches typically restrict memory utilization to homogeneous task domains, failing to leverage the shared infrastructural foundations, such as runtime environments and programming languages, that exist across diverse real-world coding problems. To address this limitation, we investigate Memory Transfer Learning (MTL) by harnessing a unified memory pool from heterogeneous domains. We evaluate performance across 6 coding benchmarks using four memory representations, ranging from concrete traces to abstract insights. Our experiments demonstrate that cross-domain memory improves average performance by 3.7\%, primarily by transferring meta-knowledge, such as validation routines, rather than task-specific code. Importantly, we find that abstraction dictates transferability; high-level insights generalize well, whereas low-level traces often induce negative transfer due to excessive specificity. Furthermore, we show that transfer effectiveness scales with the size of the memory pool, and memory can be transferred even between different models. Our work establishes empirical design principles for expanding memory utilization beyond single-domain silos. Project page: https://memorytransfer.github.io/