Memória Agência Geral por Meio de Pesquisa Profunda
General Agentic Memory Via Deep Research
November 23, 2025
Autores: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu
cs.AI
Resumo
A memória é crucial para agentes de IA, porém a memória estática amplamente adotada, que visa criar memória prontamente disponível antecipadamente, está inevitavelmente sujeita a uma severa perda de informação. Para abordar essa limitação, propomos uma nova estrutura chamada memória agêntica geral (GAM, do inglês *General Agentic Memory*). A GAM segue o princípio de "compilação just-in-time (JIT)", onde se concentra em criar contextos otimizados para seu cliente em tempo de execução, mantendo apenas memória simples, mas útil, durante a etapa offline. Para isso, a GAM emprega um design duplo com os seguintes componentes: 1) *Memorizer*, que destaca informações históricas-chave usando uma memória leve, enquanto mantém informações históricas completas em um armazenamento universal de páginas; 2) *Researcher*, que recupera e integra informações úteis do armazenamento de páginas para sua solicitação online, guiado pela memória pré-construída. Esse design permite que a GAM aproveite efetivamente as capacidades agênticas e a escalabilidade em tempo de teste dos modelos de linguagem de grande escala (LLMs, do inglês *Large Language Models*) de ponta, além de facilitar a otimização de desempenho de ponta a ponta por meio de aprendizado por reforço. Em nosso estudo experimental, demonstramos que a GAM alcança uma melhoria substancial em vários cenários de conclusão de tarefas baseadas em memória em comparação com sistemas de memória existentes.
English
Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called general agentic memory (GAM). GAM follows the principle of "just-in time (JIT) compilation" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) Memorizer, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) Researcher, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.