Memoria Agente Generale Tramite Ricerca Profonda
General Agentic Memory Via Deep Research
November 23, 2025
Autori: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu
cs.AI
Abstract
La memoria è fondamentale per gli agenti di intelligenza artificiale, tuttavia la memoria statica ampiamente adottata, che mira a creare memoria prontamente disponibile in anticipo, è inevitabilmente soggetta a una grave perdita di informazioni. Per affrontare questa limitazione, proponiamo un nuovo framework chiamato memoria agentica generale (GAM). GAM segue il principio della "compilazione just-in-time (JIT)", in cui si concentra sulla creazione di contesti ottimizzati per il suo client durante l'esecuzione, mantenendo solo una memoria semplice ma utile durante la fase offline. A tal fine, GAM utilizza un design duale con i seguenti componenti. 1) Memorizer, che evidenzia le informazioni storiche chiave utilizzando una memoria leggera, mantenendo al contempo le informazioni storiche complete all'interno di un archivio universale di pagine. 2) Ricercatore, che recupera e integra informazioni utili dall'archivio di pagine per le sue richieste online guidate dalla memoria pre-costruita. Questo design consente a GAM di sfruttare efficacemente le capacità agentiche e la scalabilità al momento del test dei modelli linguistici di grandi dimensioni (LLM) di frontiera, facilitando anche l'ottimizzazione delle prestazioni end-to-end attraverso l'apprendimento per rinforzo. Nel nostro studio sperimentale, dimostriamo che GAM ottiene un miglioramento sostanziale in vari scenari di completamento di attività basate sulla memoria rispetto ai sistemi di memoria esistenti.
English
Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called general agentic memory (GAM). GAM follows the principle of "just-in time (JIT) compilation" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) Memorizer, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) Researcher, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.