記憶は重要:エージェントの探索と推論のための論理マップとしてのイベント中心メモリ
Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning
January 8, 2026
著者: Yuyang Hu, Jiongnan Liu, Jiejun Tan, Yutao Zhu, Zhicheng Dou
cs.AI
要旨
大規模言語モデル(LLMs)は、推論、計画立案、環境との相互作用を行う知的エージェントとしてますます展開されている。長期的なシナリオに効果的にスケールするためには、過去の経験を保持・整理・検索し、下流の意思決定を支援するメモリ機構が、そのようなエージェントの重要な能力である。しかし、既存の手法の多くは、メモリを平坦な方法で整理・保存し、単純な類似性ベースの検索技術に依存している。構造化メモリが導入された場合でも、既存手法は経験やメモリ単位間の論理的関係を明示的に捉えることに苦戦することが多い。さらに、メモリアクセスは構築された構造から大きく切り離されており、未だに浅い意味的検索に依存しているため、エージェントが長期的な依存関係に対して論理的に推論することを妨げている。本研究では、イベントセグメンテーション理論に着想を得た、イベント中心のメモリフレームワークであるCompassMemを提案する。CompassMemは、経験をイベントに逐次分割し、明示的な論理関係でそれらを結びつけることで、メモリをイベントグラフとして整理する。このグラフは論理マップとして機能し、エージェントが表面的な検索を超えて、メモリ上で構造化された目標指向のナビゲーションを実行し、長期的推論を支援する価値あるメモリを段階的に収集することを可能にする。LoCoMoおよびNarrativeQAでの実験により、CompassMemが複数の基盤モデルにわたって検索および推論性能の両方を一貫して向上させることを実証した。
English
Large language models (LLMs) are increasingly deployed as intelligent agents that reason, plan, and interact with their environments. To effectively scale to long-horizon scenarios, a key capability for such agents is a memory mechanism that can retain, organize, and retrieve past experiences to support downstream decision-making. However, most existing approaches organize and store memories in a flat manner and rely on simple similarity-based retrieval techniques. Even when structured memory is introduced, existing methods often struggle to explicitly capture the logical relationships among experiences or memory units. Moreover, memory access is largely detached from the constructed structure and still depends on shallow semantic retrieval, preventing agents from reasoning logically over long-horizon dependencies. In this work, we propose CompassMem, an event-centric memory framework inspired by Event Segmentation Theory. CompassMem organizes memory as an Event Graph by incrementally segmenting experiences into events and linking them through explicit logical relations. This graph serves as a logic map, enabling agents to perform structured and goal-directed navigation over memory beyond superficial retrieval, progressively gathering valuable memories to support long-horizon reasoning. Experiments on LoCoMo and NarrativeQA demonstrate that CompassMem consistently improves both retrieval and reasoning performance across multiple backbone models.