Memp: Exploración de la Memoria Procedimental de Agentes
Memp: Exploring Agent Procedural Memory
August 8, 2025
Autores: Runnan Fang, Yuan Liang, Xiaobin Wang, Jialong Wu, Shuofei Qiao, Pengjun Xie, Fei Huang, Huajun Chen, Ningyu Zhang
cs.AI
Resumen
Los agentes basados en Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) destacan en una amplia variedad de tareas, pero adolecen de una memoria procedimental frágil que es diseñada manualmente o está entrelazada en parámetros estáticos. En este trabajo, investigamos estrategias para dotar a los agentes de una memoria procedimental aprendible, actualizable y de por vida. Proponemos Memp, que destila trayectorias pasadas del agente en instrucciones detalladas, paso a paso, y abstracciones de nivel superior, similares a guiones, y exploramos el impacto de diferentes estrategias para la Construcción, Recuperación y Actualización de la memoria procedimental. Junto con un régimen dinámico que actualiza, corrige y deprecia continuamente su contenido, este repositorio evoluciona en sincronía con nuevas experiencias. La evaluación empírica en TravelPlanner y ALFWorld muestra que, a medida que se refina el repositorio de memoria, los agentes logran tasas de éxito cada vez más altas y una mayor eficiencia en tareas análogas. Además, la memoria procedimental construida a partir de un modelo más fuerte conserva su valor: migrar la memoria procedimental a un modelo más débil produce ganancias sustanciales en el rendimiento.
English
Large Language Models (LLMs) based agents excel at diverse tasks, yet they
suffer from brittle procedural memory that is manually engineered or entangled
in static parameters. In this work, we investigate strategies to endow agents
with a learnable, updatable, and lifelong procedural memory. We propose Memp
that distills past agent trajectories into both fine-grained, step-by-step
instructions and higher-level, script-like abstractions, and explore the impact
of different strategies for Build, Retrieval, and Update of procedural memory.
Coupled with a dynamic regimen that continuously updates, corrects, and
deprecates its contents, this repository evolves in lockstep with new
experience. Empirical evaluation on TravelPlanner and ALFWorld shows that as
the memory repository is refined, agents achieve steadily higher success rates
and greater efficiency on analogous tasks. Moreover, procedural memory built
from a stronger model retains its value: migrating the procedural memory to a
weaker model yields substantial performance gains.