ChatPaper.aiChatPaper

MemMA: マルチエージェント推論とインサイチュー自己進化によるメモリサイクルの協調制御

MemMA: Coordinating the Memory Cycle through Multi-Agent Reasoning and In-Situ Self-Evolution

March 19, 2026
著者: Minhua Lin, Zhiwei Zhang, Hanqing Lu, Hui Liu, Xianfeng Tang, Qi He, Xiang Zhang, Suhang Wang
cs.AI

要旨

メモリ拡張型LLMエージェントは、長期的なインタラクションを支援するために外部メモリバンクを維持するが、既存システムの多くは、構築、検索、利用を独立したサブルーチンとして扱っている。これにより、メモリサイクルの順方向経路における戦略的盲目性(構築と検索が明示的な戦略的推論ではなく局所的なヒューリスティクスに依存する問題)と、逆方向経路における疎な遅延監視(下流の失敗がメモリバンクの直接的な修復に結びつきにくい問題)という、相互に関連した2つの課題が生じる。これらの課題に対処するため、我々はメモリサイクルを順方向・逆方向の両経路に沿って協調させるプラグアンドプレイ型のマルチエージェントフレームワーク、MemMAを提案する。順方向経路では、Meta-Thinkerが構造化されたガイダンスを生成し、構築時にはMemory Managerを、反復的検索時にはQuery Reasonerを導出する。逆方向経路では、MemMAはその場での自己進化的メモリ構築を導入し、プローブQAペアを合成し、現在のメモリを検証し、メモリが確定する前に失敗を修復アクションに変換する。LoCoMoを用いた大規模実験により、MemMAが複数のLLMバックボーンにわたって既存ベースラインを一貫して上回り、プラグアンドプレイ方式で3種類のストレージバックエンドを改善することが実証された。コードはhttps://github.com/ventr1c/memma で公開されている。
English
Memory-augmented LLM agents maintain external memory banks to support long-horizon interaction, yet most existing systems treat construction, retrieval, and utilization as isolated subroutines. This creates two coupled challenges: strategic blindness on the forward path of the memory cycle, where construction and retrieval are driven by local heuristics rather than explicit strategic reasoning, and sparse, delayed supervision on the backward path, where downstream failures rarely translate into direct repairs of the memory bank. To address these challenges, we propose MemMA, a plug-and-play multi-agent framework that coordinates the memory cycle along both the forward and backward paths. On the forward path, a Meta-Thinker produces structured guidance that steers a Memory Manager during construction and directs a Query Reasoner during iterative retrieval. On the backward path, MemMA introduces in-situ self-evolving memory construction, which synthesizes probe QA pairs, verifies the current memory, and converts failures into repair actions before the memory is finalized. Extensive experiments on LoCoMo show that MemMA consistently outperforms existing baselines across multiple LLM backbones and improves three different storage backends in a plug-and-play manner. Our code is publicly available at https://github.com/ventr1c/memma.
PDF21March 28, 2026