ChatPaper.aiChatPaper

심층 연구를 통한 일반적 에이전트 메모리

General Agentic Memory Via Deep Research

November 23, 2025
저자: B. Y. Yan, Chaofan Li, Hongjin Qian, Shuqi Lu, Zheng Liu
cs.AI

초록

메모리는 AI 에이전트에게 매우 중요하지만, 널리 채택된 정적 메모리는 사전에 즉시 사용 가능한 메모리를 생성하려는 목적으로 심각한 정보 손실을 피할 수 없다. 이러한 한계를 해결하기 위해, 우리는 일반 에이전트 메모리(GAM)라는 새로운 프레임워크를 제안한다. GAM은 "적시 컴파일(JIT)" 원칙을 따르며, 오프라인 단계에서는 단순하지만 유용한 메모리만 유지하면서 런타임에 클라이언트를 위한 최적화된 컨텍스트를 생성하는 데 초점을 맞춘다. 이를 위해 GAM은 다음과 같은 구성 요소로 이루어진 듀오 디자인을 채택한다. 1) 메모라이저(Memorizer): 경량 메모리를 사용하여 주요 역사적 정보를 강조하면서, 보편적인 페이지 저장소 내에 완전한 역사적 정보를 유지한다. 2) 리서처(Researcher): 사전 구축된 메모리의 지도를 받아 페이지 저장소에서 유용한 정보를 검색하고 통합하여 온라인 요청에 대응한다. 이 디자인은 GAM이 최첨단 대형 언어 모델(LLM)의 에이전트 능력과 테스트 시 확장성을 효과적으로 활용할 수 있게 하며, 강화 학습을 통한 종단 간 성능 최적화도 가능하게 한다. 우리의 실험 연구에서 GAM은 기존 메모리 시스템 대비 다양한 메모리 기반 작업 완료 시나리오에서 상당한 개선을 달성함을 보여준다.
English
Memory is critical for AI agents, yet the widely-adopted static memory, aiming to create readily available memory in advance, is inevitably subject to severe information loss. To address this limitation, we propose a novel framework called general agentic memory (GAM). GAM follows the principle of "just-in time (JIT) compilation" where it focuses on creating optimized contexts for its client at runtime while keeping only simple but useful memory during the offline stage. To this end, GAM employs a duo-design with the following components. 1) Memorizer, which highlights key historical information using a lightweight memory, while maintaining complete historical information within a universal page-store. 2) Researcher, which retrieves and integrates useful information from the page-store for its online request guided by the pre-constructed memory. This design allows GAM to effectively leverage the agentic capabilities and test-time scalability of frontier large language models (LLMs), while also facilitating end-to-end performance optimization through reinforcement learning. In our experimental study, we demonstrate that GAM achieves substantial improvement on various memory-grounded task completion scenarios against existing memory systems.
PDF1202November 26, 2025