ChatPaper.aiChatPaper

SimpleMem: LLMエージェントのための効率的な生涯記憶システム

SimpleMem: Efficient Lifelong Memory for LLM Agents

January 5, 2026
著者: Jiaqi Liu, Yaofeng Su, Peng Xia, Siwei Han, Zeyu Zheng, Cihang Xie, Mingyu Ding, Huaxiu Yao
cs.AI

要旨

複雑な環境における信頼性の高い長期的インタラクションを実現するためには、LLMエージェントが履歴経験を効率的に管理するメモリシステムが不可欠である。既存のアプローチは、受動的なコンテキスト拡張による完全なインタラクション履歴の保持(結果として大幅な冗長性が生じる)か、ノイズ除去のための反復的推論への依存(高いトークンコストが発生する)のいずれかに偏っている。この課題に対処するため、我々は意味的なロスレス圧縮に基づく効率的なメモリフレームワーク「SimpleMem」を提案する。情報密度とトークン利用効率を最大化する3段階のパイプラインを設計した:(1)エントロピーを考慮したフィルタリングを適用し、非構造化インタラクションをコンパクトなマルチビュー索引付きメモリ単位に蒸留する「意味的構造化圧縮」、(2)関連するメモリ単位を統合して高水準の抽象表現を生成し冗長性を削減する非同期プロセス「再帰的メモリ統合」、(3)クエリの複雑さに基づいて検索範囲を動的に調整し、効率的に精密なコンテキストを構築する「適応的クエリ対応検索」。ベンチマークデータセットによる実験では、本手法が精度、検索効率、推論コストの全てにおいてベースライン手法を一貫して上回り、平均F1スコアで26.4%の向上を達成するとともに、推論時のトークン消費量を最大30分の1まで削減し、性能と効率性の優れたバランスを実現することを示した。コードはhttps://github.com/aiming-lab/SimpleMemで公開されている。
English
To support reliable long-term interaction in complex environments, LLM agents require memory systems that efficiently manage historical experiences. Existing approaches either retain full interaction histories via passive context extension, leading to substantial redundancy, or rely on iterative reasoning to filter noise, incurring high token costs. To address this challenge, we introduce SimpleMem, an efficient memory framework based on semantic lossless compression. We propose a three-stage pipeline designed to maximize information density and token utilization: (1) Semantic Structured Compression, which applies entropy-aware filtering to distill unstructured interactions into compact, multi-view indexed memory units; (2) Recursive Memory Consolidation, an asynchronous process that integrates related units into higher-level abstract representations to reduce redundancy; and (3) Adaptive Query-Aware Retrieval, which dynamically adjusts retrieval scope based on query complexity to construct precise context efficiently. Experiments on benchmark datasets show that our method consistently outperforms baseline approaches in accuracy, retrieval efficiency, and inference cost, achieving an average F1 improvement of 26.4% while reducing inference-time token consumption by up to 30-fold, demonstrating a superior balance between performance and efficiency. Code is available at https://github.com/aiming-lab/SimpleMem.
PDF373February 27, 2026