Memoria Agéntica General mediante Investigación Profunda
General Agentic Memory Via Deep Research
November 23, 2025
Autores: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu
cs.AI
Resumen
La memoria es fundamental para los agentes de IA, sin embargo, la memoria estática ampliamente adoptada, que busca crear memoria disponible de antemano, está inevitablemente sujeta a una severa pérdida de información. Para abordar esta limitación, proponemos un marco novedoso llamado memoria agéntica general (GAM, por sus siglas en inglés). GAM sigue el principio de "compilación justo a tiempo (JIT)", donde se enfoca en crear contextos optimizados para su cliente en tiempo de ejecución, manteniendo únicamente una memoria simple pero útil durante la etapa fuera de línea. Para lograr esto, GAM emplea un diseño dual con los siguientes componentes: 1) Memorizador, que resalta información histórica clave utilizando una memoria ligera, mientras mantiene la información histórica completa dentro de un almacén de páginas universal. 2) Investigador, que recupera e integra información útil del almacén de páginas para sus solicitudes en línea, guiado por la memoria preconstruida. Este diseño permite a GAM aprovechar eficazmente las capacidades agénticas y la escalabilidad en tiempo de prueba de los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) de vanguardia, al mismo tiempo que facilita la optimización del rendimiento de extremo a extremo mediante el aprendizaje por refuerzo. En nuestro estudio experimental, demostramos que GAM logra una mejora sustancial en diversos escenarios de finalización de tareas basadas en memoria en comparación con los sistemas de memoria existentes.
English
Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called general agentic memory (GAM). GAM follows the principle of "just-in time (JIT) compilation" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) Memorizer, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) Researcher, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.