ChatPaper.aiChatPaper

Общая агентная память через глубокое исследование

General Agentic Memory Via Deep Research

November 23, 2025
Авторы: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu
cs.AI

Аннотация

Память является критически важной для искусственных интеллектуальных агентов, однако широко используемая статическая память, направленная на создание заранее доступных данных, неизбежно подвержена значительным потерям информации. Для преодоления этого ограничения мы предлагаем новую концепцию, называемую общей агентной памятью (General Agentic Memory, GAM). GAM следует принципу «компиляции точно в срок» (just-in-time, JIT), фокусируясь на создании оптимизированных контекстов для клиента во время выполнения, сохраняя при этом только простую, но полезную память на этапе оффлайн. Для достижения этой цели GAM использует двойную архитектуру, состоящую из следующих компонентов. 1) Запоминающее устройство (Memorizer), которое выделяет ключевую историческую информацию с использованием легковесной памяти, сохраняя при этом полную историческую информацию в универсальном хранилище страниц. 2) Исследователь (Researcher), который извлекает и интегрирует полезную информацию из хранилища страниц для онлайн-запросов, руководствуясь предварительно построенной памятью. Такая архитектура позволяет GAM эффективно использовать агентные возможности и масштабируемость передовых больших языковых моделей (LLM) во время тестирования, а также оптимизировать производительность на всех этапах с помощью обучения с подкреплением. В нашем экспериментальном исследовании мы демонстрируем, что GAM достигает значительного улучшения в различных сценариях выполнения задач, основанных на памяти, по сравнению с существующими системами памяти.
English
Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called general agentic memory (GAM). GAM follows the principle of "just-in time (JIT) compilation" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) Memorizer, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) Researcher, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.
PDF1202November 26, 2025