ChatPaper.aiChatPaper

Algemeen Agentisch Geheugen via Diepgaand Onderzoek

General Agentic Memory Via Deep Research

November 23, 2025
Auteurs: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu
cs.AI

Samenvatting

Geheugen is cruciaal voor AI-agenten, maar het veelgebruikte statische geheugen, dat gericht is op het van tevoren creëren van direct beschikbaar geheugen, is onvermijdelijk onderhevig aan ernstig informatieverlies. Om deze beperking aan te pakken, stellen we een nieuw raamwerk voor genaamd general agentic memory (GAM). GAM volgt het principe van "just-in-time (JIT) compilatie", waarbij het zich richt op het creëren van geoptimaliseerde contexten voor zijn cliënt tijdens runtime, terwijl het alleen eenvoudig maar nuttig geheugen behoudt tijdens de offline fase. Hiertoe maakt GAM gebruik van een duo-ontwerp met de volgende componenten. 1) Memorizer, dat belangrijke historische informatie benadrukt met behulp van een lichtgewicht geheugen, terwijl het volledige historische informatie behoudt binnen een universele pagina-opslag. 2) Researcher, dat nuttige informatie ophaalt en integreert uit de pagina-opslag voor zijn online verzoek, geleid door het vooraf geconstrueerde geheugen. Dit ontwerp stelt GAM in staat om de agentische capaciteiten en de schaalbaarheid tijdens tests van geavanceerde grote taalmodellen (LLMs) effectief te benutten, terwijl het ook end-to-end prestatieoptimalisatie mogelijk maakt door middel van reinforcement learning. In onze experimentele studie tonen we aan dat GAM aanzienlijke verbeteringen bereikt in verschillende scenario's voor taakvoltooiing die gebaseerd zijn op geheugen, vergeleken met bestaande geheugensystemen.
English
Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called general agentic memory (GAM). GAM follows the principle of "just-in time (JIT) compilation" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) Memorizer, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) Researcher, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.
PDF1502December 3, 2025