Memp: Untersuchung des prozeduralen Gedächtnisses von Agenten
Memp: Exploring Agent Procedural Memory
August 8, 2025
papers.authors: Runnan Fang, Yuan Liang, Xiaobin Wang, Jialong Wu, Shuofei Qiao, Pengjun Xie, Fei Huang, Huajun Chen, Ningyu Zhang
cs.AI
papers.abstract
Große Sprachmodelle (LLMs) basierte Agenten zeichnen sich durch ihre Fähigkeit aus, vielfältige Aufgaben zu bewältigen, leiden jedoch unter einem brüchigen prozeduralen Gedächtnis, das manuell konstruiert oder in statischen Parametern verankert ist. In dieser Arbeit untersuchen wir Strategien, um Agenten mit einem erlernbaren, aktualisierbaren und lebenslangen prozeduralen Gedächtnis auszustatten. Wir schlagen Memp vor, das vergangene Agenten-Trajektorien sowohl in feinkörnige, schrittweise Anweisungen als auch in höhere, skriptartige Abstraktionen destilliert, und erforschen die Auswirkungen verschiedener Strategien für den Aufbau, die Abfrage und die Aktualisierung des prozeduralen Gedächtnisses. In Verbindung mit einem dynamischen Regime, das seine Inhalte kontinuierlich aktualisiert, korrigiert und veraltet, entwickelt sich dieses Repository im Gleichschritt mit neuen Erfahrungen. Empirische Auswertungen auf TravelPlanner und ALFWorld zeigen, dass mit der Verfeinerung des Gedächtnis-Repositorys die Agenten stetig höhere Erfolgsraten und größere Effizienz bei analogen Aufgaben erreichen. Darüber hinaus behält das prozedurale Gedächtnis, das aus einem stärkeren Modell aufgebaut wurde, seinen Wert: Die Migration des prozeduralen Gedächtnisses zu einem schwächeren Modell führt zu erheblichen Leistungssteigerungen.
English
Large Language Models (LLMs) based agents excel at diverse tasks, yet they
suffer from brittle procedural memory that is manually engineered or entangled
in static parameters. In this work, we investigate strategies to endow agents
with a learnable, updatable, and lifelong procedural memory. We propose Memp
that distills past agent trajectories into both fine-grained, step-by-step
instructions and higher-level, script-like abstractions, and explore the impact
of different strategies for Build, Retrieval, and Update of procedural memory.
Coupled with a dynamic regimen that continuously updates, corrects, and
deprecates its contents, this repository evolves in lockstep with new
experience. Empirical evaluation on TravelPlanner and ALFWorld shows that as
the memory repository is refined, agents achieve steadily higher success rates
and greater efficiency on analogous tasks. Moreover, procedural memory built
from a stronger model retains its value: migrating the procedural memory to a
weaker model yields substantial performance gains.