Mémoire Agentique Générale par Recherche Profonde
General Agentic Memory Via Deep Research
November 23, 2025
papers.authors: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu
cs.AI
papers.abstract
La mémoire est essentielle pour les agents d’IA, mais la mémoire statique largement adoptée, qui vise à créer une mémoire prête à l’emploi à l’avance, est inévitablement sujette à une perte sévère d’information. Pour remédier à cette limitation, nous proposons un nouveau cadre appelé mémoire agentique générale (GAM). GAM suit le principe de la « compilation juste à temps (JIT) » en se concentrant sur la création de contextes optimisés pour son client au moment de l’exécution, tout en conservant uniquement une mémoire simple mais utile pendant la phase hors ligne. Pour ce faire, GAM utilise une conception en duo avec les composants suivants. 1) Le Mémoriseur, qui met en évidence les informations historiques clés à l’aide d’une mémoire légère, tout en conservant l’intégralité des informations historiques dans un stockage universel de pages. 2) Le Chercheur, qui récupère et intègre les informations utiles du stockage de pages pour ses requêtes en ligne, guidé par la mémoire pré-construite. Cette conception permet à GAM d’exploiter efficacement les capacités agentiques et l’évolutivité au moment des tests des modèles de langage de pointe (LLMs), tout en facilitant l’optimisation des performances de bout en bout grâce à l’apprentissage par renforcement. Dans notre étude expérimentale, nous démontrons que GAM apporte une amélioration substantielle dans divers scénarios de tâches ancrées dans la mémoire par rapport aux systèmes de mémoire existants.
English
Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called general agentic memory (GAM). GAM follows the principle of "just-in time (JIT) compilation" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) Memorizer, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) Researcher, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.