기억이 더 중요하다: 에이전트 탐색과 추론을 위한 논리 지도로서의 사건 중심 기억
Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning
January 8, 2026
저자: Yuyang Hu, Jiongnan Liu, Jiejun Tan, Yutao Zhu, Zhicheng Dou
cs.AI
초록
대규모 언어 모델(LLM)은 점차 자신의 환경을 추론, 계획 및 상호작용하는 지능형 에이전트로 배포되고 있습니다. 장기적인 시나리오로 효과적으로 확장하기 위해, 이러한 에이전트에게 핵심적인 능력은 과거 경험을 보유, 조직 및 검색하여 하류 의사 결정을 지원할 수 있는 메모리 메커니즘입니다. 그러나 대부분의 기존 접근법은 메모리를 평평한 방식으로 구성 및 저장하고 단순한 유사성 기반 검색 기술에 의존합니다. 구조화된 메모리가 도입된 경우에도 기존 방법들은 경험 또는 메모리 단위 간의 논리적 관계를 명시적으로 포착하는 데 어려움을 겪는 경우가 많습니다. 더욱이 메모리 접근은 구성된 구조와 크게 분리되어 있으며 여전히 얕은 의미론적 검색에 의존하여, 에이전트가 장기적 의존 관계에 대해 논리적으로 추론하는 것을 방해합니다. 본 연구에서는 사건 분할 이론에서 영감을 받은 사건 중심 메모리 프레임워크인 CompassMem을 제안합니다. CompassMem은 경험을 점진적으로 사건으로 분할하고 명시적 논리적 관계를 통해 연결함으로써 메모리를 이벤트 그래프로 구성합니다. 이 그래프는 논리 지도 역할을 하여 에이전트가 표면적인 검색을 넘어 메모리 위에서 구조화되고 목표 지향적인 탐색을 수행하며, 점진적으로 가치 있는 메모리를 수집하여 장기 추론을 지원할 수 있게 합니다. LoCoMo 및 NarrativeQA에 대한 실험은 CompassMem이 여러 백본 모델에 걸쳐 검색 및 추론 성능을 모두 지속적으로 향상시킴을 입증합니다.
English
Large language models (LLMs) are increasingly deployed as intelligent agents that reason, plan, and interact with their environments. To effectively scale to long-horizon scenarios, a key capability for such agents is a memory mechanism that can retain, organize, and retrieve past experiences to support downstream decision-making. However, most existing approaches organize and store memories in a flat manner and rely on simple similarity-based retrieval techniques. Even when structured memory is introduced, existing methods often struggle to explicitly capture the logical relationships among experiences or memory units. Moreover, memory access is largely detached from the constructed structure and still depends on shallow semantic retrieval, preventing agents from reasoning logically over long-horizon dependencies. In this work, we propose CompassMem, an event-centric memory framework inspired by Event Segmentation Theory. CompassMem organizes memory as an Event Graph by incrementally segmenting experiences into events and linking them through explicit logical relations. This graph serves as a logic map, enabling agents to perform structured and goal-directed navigation over memory beyond superficial retrieval, progressively gathering valuable memories to support long-horizon reasoning. Experiments on LoCoMo and NarrativeQA demonstrate that CompassMem consistently improves both retrieval and reasoning performance across multiple backbone models.