MemMA: 다중 에이전트 추론과 인-사이투 자기 진화를 통한 메모리 주기 조정
MemMA: Coordinating the Memory Cycle through Multi-Agent Reasoning and In-Situ Self-Evolution
March 19, 2026
저자: Minhua Lin, Zhiwei Zhang, Hanqing Lu, Hui Liu, Xianfeng Tang, Qi He, Xiang Zhang, Suhang Wang
cs.AI
초록
메모리 증강 LLM 에이전트는 장기적 상호작용을 지원하기 위해 외부 메모리 뱅크를 유지하지만, 대부분의 기존 시스템은 구축, 검색 및 활용을 분리된 하위 루틴으로 취급합니다. 이로 인해 두 가지 결합된 과제가 발생합니다: 메모리 주기의 순방향 경로에서 건설과 검색이 명시적 전략 추론이 아닌 지역적 휴리스틱에 의해 구동되는 전략적 맹점, 그리고 역방향 경로에서 하류 실패가 메모리 뱅크의 직접적 수리로 이어지기 어려운 희소하고 지연된 감독입니다. 이러한 과제를 해결하기 위해 우리는 순방향 및 역방향 경로를 따라 메모리 주기를 조정하는 플러그 앤 플레이 방식의 다중 에이전트 프레임워크인 MemMA를 제안합니다. 순방향 경로에서는 Meta-Thinker가 구조화된 지침을 생성하여 구축 시 Memory Manager를 조정하고 반복적 검색 시 Query Reasoner를 지시합니다. 역방향 경로에서는 MemMA가 현장 자기 진화 메모리 구축을 도입하여 프로브 QA 쌍을 합성하고, 현재 메모리를 검증하며, 메모리가 최종 결정되기 전에 실패를 수리 작업으로 전환합니다. LoCoMo에 대한 광범위한 실험 결과, MemMA가 여러 LLM 백본에 걸쳐 기존 베이스라인을 지속적으로 능가하고 플러그 앤 플레이 방식으로 세 가지 다른 스토리지 백엔드를 개선함을 확인했습니다. 우리의 코드는 https://github.com/ventr1c/memma 에 공개되어 있습니다.
English
Memory-augmented LLM agents maintain external memory banks to support long-horizon interaction, yet most existing systems treat construction, retrieval, and utilization as isolated subroutines. This creates two coupled challenges: strategic blindness on the forward path of the memory cycle, where construction and retrieval are driven by local heuristics rather than explicit strategic reasoning, and sparse, delayed supervision on the backward path, where downstream failures rarely translate into direct repairs of the memory bank. To address these challenges, we propose MemMA, a plug-and-play multi-agent framework that coordinates the memory cycle along both the forward and backward paths. On the forward path, a Meta-Thinker produces structured guidance that steers a Memory Manager during construction and directs a Query Reasoner during iterative retrieval. On the backward path, MemMA introduces in-situ self-evolving memory construction, which synthesizes probe QA pairs, verifies the current memory, and converts failures into repair actions before the memory is finalized. Extensive experiments on LoCoMo show that MemMA consistently outperforms existing baselines across multiple LLM backbones and improves three different storage backends in a plug-and-play manner. Our code is publicly available at https://github.com/ventr1c/memma.