ChatPaper.aiChatPaper

構造化エピソードイベント記憶

Structured Episodic Event Memory

January 10, 2026
著者: Zhengxuan Lu, Dongfang Li, Yukun Shi, Beilun Wang, Longyue Wang, Baotian Hu
cs.AI

要旨

大規模言語モデル(LLM)における記憶への現在のアプローチは、静的検索拡張生成(RAG)に依存するものが主流であり、これは散発的な検索を招きがちで、複雑な推論に必要な構造的依存関係を捉えられないことが多い。自律エージェントにとって、これらの受動的で平坦なアーキテクチャは、長期的相互作用の動的かつ連想的な性質をモデル化するために必要な認知的組織化を欠いている。この問題に対処するため、我々は構造化エピソード記憶(SEEM)を提案する。これは、関係的事実のためのグラフ記憶層と、物語的進行のための動的エピソード記憶層を統合した階層的フレームワークである。認知的フレーム理論に基づき、SEEMは相互作用のストリームを、精密なプロベナンス(情報源)ポインタによって固定された構造化されたエピソードイベントフレーム(EEF)へ変換する。さらに、断片的な証拠から首尾一貫した物語的文脈を再構築するために、エージェント的連想融合および逆プロベナンス展開(RPE)メカニズムを導入する。LoCoMoおよびLongMemEvalベンチマークによる実験結果は、SEEMがベースライン手法を大幅に上回り、エージェントが優れた物語的一貫性と論理的整合性を維持することを可能にすることを実証している。
English
Current approaches to memory in Large Language Models (LLMs) predominantly rely on static Retrieval-Augmented Generation (RAG), which often results in scattered retrieval and fails to capture the structural dependencies required for complex reasoning. For autonomous agents, these passive and flat architectures lack the cognitive organization necessary to model the dynamic and associative nature of long-term interaction. To address this, we propose Structured Episodic Event Memory (SEEM), a hierarchical framework that synergizes a graph memory layer for relational facts with a dynamic episodic memory layer for narrative progression. Grounded in cognitive frame theory, SEEM transforms interaction streams into structured Episodic Event Frames (EEFs) anchored by precise provenance pointers. Furthermore, we introduce an agentic associative fusion and Reverse Provenance Expansion (RPE) mechanism to reconstruct coherent narrative contexts from fragmented evidence. Experimental results on the LoCoMo and LongMemEval benchmarks demonstrate that SEEM significantly outperforms baselines, enabling agents to maintain superior narrative coherence and logical consistency.
PDF43January 31, 2026