Allgemeines agentisches Gedächtnis durch tiefgehende Forschung
General Agentic Memory Via Deep Research
November 23, 2025
papers.authors: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu
cs.AI
papers.abstract
Gedächtnis ist entscheidend für KI-Agenten, doch das weit verbreitete statische Gedächtnis, das darauf abzielt, im Voraus leicht verfügbare Erinnerungen zu schaffen, unterliegt unweigerlich einem erheblichen Informationsverlust. Um diese Einschränkung zu überwinden, schlagen wir ein neuartiges Framework namens General Agentic Memory (GAM) vor. GAM folgt dem Prinzip der „Just-in-Time (JIT)-Kompilierung“, bei dem es darauf abzielt, zur Laufzeit optimierte Kontexte für seinen Client zu erstellen, während es während der Offline-Phase nur einfache, aber nützliche Erinnerungen speichert. Zu diesem Zweck verwendet GAM ein Duo-Design mit den folgenden Komponenten. 1) Der Memorizer, der wichtige historische Informationen mithilfe eines leichtgewichtigen Gedächtnisses hervorhebt, während er vollständige historische Informationen in einem universellen Seiten-Speicher aufrechterhält. 2) Der Researcher, der nützliche Informationen aus dem Seiten-Speicher abruft und integriert, geleitet durch das vorab konstruierte Gedächtnis, um Online-Anfragen zu bearbeiten. Dieses Design ermöglicht es GAM, die agentischen Fähigkeiten und die Skalierbarkeit während der Testphase von fortschrittlichen großen Sprachmodellen (LLMs) effektiv zu nutzen, während es gleichzeitig eine end-to-end-Leistungsoptimierung durch Reinforcement Learning erleichtert. In unserer experimentellen Studie zeigen wir, dass GAM in verschiedenen gedächtnisbasierten Aufgabenbearbeitungsszenarien im Vergleich zu bestehenden Gedächtnissystemen erhebliche Verbesserungen erzielt.
English
Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called general agentic memory (GAM). GAM follows the principle of "just-in time (JIT) compilation" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) Memorizer, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) Researcher, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.