Трансферное обучение памяти: как воспоминания передаются между доменами в кодирующих агентах
Memory Transfer Learning: How Memories are Transferred Across Domains in Coding Agents
April 15, 2026
Авторы: Kangsan Kim, Minki Kang, Taeil Kim, Yanlai Yang, Mengye Ren, Sung Ju Hwang
cs.AI
Аннотация
Саморазвитие на основе памяти стало перспективной парадигмой для создания программных агентов. Однако существующие подходы обычно ограничивают использование памяти однородными предметными областями, не используя общие инфраструктурные основы, такие как среды выполнения и языки программирования, существующие в разнородных реальных задачах программирования. Для преодоления этого ограничения мы исследуем перенос памяти (Memory Transfer Learning, MTL), используя единый пул памяти из гетерогенных доменов. Мы оцениваем производительность на шести тестовых наборах по программированию, используя четыре представления памяти — от конкретных трассировок до абстрактных инсайтов. Наши эксперименты показывают, что междоменная память повышает среднюю производительность на 3,7%, в основном за счет передачи мета-знаний, таких как процедуры валидации, а не специфичного для задачи кода. Важно, что мы обнаружили: уровень абстракции определяет переносимость — высокоуровневые инсайты хорошо обобщаются, тогда как низкоуровневые трассировки часто вызывают отрицательный перенос из-за чрезмерной специфичности. Кроме того, мы показываем, что эффективность переноса масштабируется с размером пула памяти, и память может передаваться даже между разными моделями. Наша работа устанавливает эмпирические принципы проектирования для расширения использования памяти за пределы изолированных доменов. Страница проекта: https://memorytransfer.github.io/
English
Memory-based self-evolution has emerged as a promising paradigm for coding agents. However, existing approaches typically restrict memory utilization to homogeneous task domains, failing to leverage the shared infrastructural foundations, such as runtime environments and programming languages, that exist across diverse real-world coding problems. To address this limitation, we investigate Memory Transfer Learning (MTL) by harnessing a unified memory pool from heterogeneous domains. We evaluate performance across 6 coding benchmarks using four memory representations, ranging from concrete traces to abstract insights. Our experiments demonstrate that cross-domain memory improves average performance by 3.7\%, primarily by transferring meta-knowledge, such as validation routines, rather than task-specific code. Importantly, we find that abstraction dictates transferability; high-level insights generalize well, whereas low-level traces often induce negative transfer due to excessive specificity. Furthermore, we show that transfer effectiveness scales with the size of the memory pool, and memory can be transferred even between different models. Our work establishes empirical design principles for expanding memory utilization beyond single-domain silos. Project page: https://memorytransfer.github.io/