Memp: Esplorazione della Memoria Procedurale degli Agenti
Memp: Exploring Agent Procedural Memory
August 8, 2025
Autori: Runnan Fang, Yuan Liang, Xiaobin Wang, Jialong Wu, Shuofei Qiao, Pengjun Xie, Fei Huang, Huajun Chen, Ningyu Zhang
cs.AI
Abstract
I modelli linguistici di grandi dimensioni (LLM) basati su agenti eccellono in una vasta gamma di compiti, ma soffrono di una memoria procedurale fragile che è progettata manualmente o integrata in parametri statici. In questo lavoro, esploriamo strategie per dotare gli agenti di una memoria procedurale apprendibile, aggiornabile e permanente. Proponiamo Memp, che condensa le traiettorie passate degli agenti sia in istruzioni dettagliate, passo dopo passo, sia in astrazioni di livello superiore, simili a script, e analizziamo l'impatto di diverse strategie per la Costruzione, il Recupero e l'Aggiornamento della memoria procedurale. Accoppiato a un regime dinamico che aggiorna, corregge e depreca continuamente i suoi contenuti, questo repository si evolve in sincronia con nuove esperienze. La valutazione empirica su TravelPlanner e ALFWorld dimostra che, man mano che il repository di memoria viene raffinato, gli agenti raggiungono tassi di successo costantemente più elevati e una maggiore efficienza in compiti analoghi. Inoltre, la memoria procedurale costruita da un modello più forte mantiene il suo valore: migrare la memoria procedurale a un modello più debole produce miglioramenti sostanziali nelle prestazioni.
English
Large Language Models (LLMs) based agents excel at diverse tasks, yet they
suffer from brittle procedural memory that is manually engineered or entangled
in static parameters. In this work, we investigate strategies to endow agents
with a learnable, updatable, and lifelong procedural memory. We propose Memp
that distills past agent trajectories into both fine-grained, step-by-step
instructions and higher-level, script-like abstractions, and explore the impact
of different strategies for Build, Retrieval, and Update of procedural memory.
Coupled with a dynamic regimen that continuously updates, corrects, and
deprecates its contents, this repository evolves in lockstep with new
experience. Empirical evaluation on TravelPlanner and ALFWorld shows that as
the memory repository is refined, agents achieve steadily higher success rates
and greater efficiency on analogous tasks. Moreover, procedural memory built
from a stronger model retains its value: migrating the procedural memory to a
weaker model yields substantial performance gains.