MAGMA:AIエージェントのためのマルチグラフベースのエージェンシックメモリ・アーキテクチャ
MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents
January 6, 2026
著者: Dongming Jiang, Yi Li, Guanpeng Li, Bingzhe Li
cs.AI
要旨
メモリ拡張生成(MAG)は、大規模言語モデルを外部メモリで拡張し、長文脈推論を可能にする技術である。しかし、既存手法の多くは、単一のメモリストアにおける意味的類似性に依存しており、時間的、因果的、実体情報が混在している。この設計は解釈性と、クエリ意図と検索証拠間の整合性を制限し、最適でない推論精度をもたらす。本論文では、直交する意味的、時間的、因果的、実体グラフに各メモリ項目を分散して表現する、マルチグラフエージェンシックメモリアーキテクチャ「MAGMA」を提案する。MAGMAは検索を、これらの関係的視点に基づくポリシー誘導トラバーサルとして定式化し、クエリ適応型の選択と構造化された文脈構築を実現する。メモリ表現と検索ロジックを分離することで、MAGMAは透明な推論経路と検索に対するきめ細かい制御を提供する。LoCoMoおよびLongMemEvalによる実験により、MAGMAが長期的推論タスクにおいて、既存の最先端エージェンシックメモリシステムを一貫して凌駕することを実証する。
English
Memory-Augmented Generation (MAG) extends Large Language Models with external memory to support long-context reasoning, but existing approaches largely rely on semantic similarity over monolithic memory stores, entangling temporal, causal, and entity information. This design limits interpretability and alignment between query intent and retrieved evidence, leading to suboptimal reasoning accuracy. In this paper, we propose MAGMA, a multi-graph agentic memory architecture that represents each memory item across orthogonal semantic, temporal, causal, and entity graphs. MAGMA formulates retrieval as policy-guided traversal over these relational views, enabling query-adaptive selection and structured context construction. By decoupling memory representation from retrieval logic, MAGMA provides transparent reasoning paths and fine-grained control over retrieval. Experiments on LoCoMo and LongMemEval demonstrate that MAGMA consistently outperforms state-of-the-art agentic memory systems in long-horizon reasoning tasks.