SuperLocalMemory V3.3: The Living Brain -- 生物学的に着想を得た忘却、認知的量子化、およびゼロLLMエージェントメモリシステムのためのマルチチャネル検索
SuperLocalMemory V3.3: The Living Brain -- Biologically-Inspired Forgetting, Cognitive Quantization, and Multi-Channel Retrieval for Zero-LLM Agent Memory Systems
April 6, 2026
著者: Varun Pratap Bhardwaj
cs.AI
要旨
AIコーディングエージェントはパラドックスに直面している:膨大なパラメトリック知識を有しながら、1時間前の会話すら記憶できない。既存のメモリシステムは、テキストをベクトルデータベースに単一チャネル検索で保存し、中核処理にクラウドLLMを必要とし、人間の記憶を効果的にする認知プロセスを一切実装していない。
我々はSuperLocalMemory V3.3(「生きた脳」)を発表する。これは、数学的生命周期ダイナミクスを備えた完全な認知的記憶分類を実装した、ローカルファーストのエージェントメモリシステムである。V3.2(arXiv:2603.14588)の情報幾何学的基盤に基づき、5つの新規貢献を導入する:(1) Fisher-Rao量子化考慮距離(FRQAD)――ガウス統計多様体上の新しい計量で、量子化された埋め込みより高忠実度な埋め込みを選好する精度100%(コサイン類似度は85.6%)を達成、先行技術は皆無。(2) エビングハウス適応忘却とライフサイクル対応量子化――ローカルエージェントメモリで初めての数学的忘却曲線を進行的埋め込み圧縮と連動させ、6.7倍の識別力を達成。(3) 意味、キーワード、エンティティグラフ、時間、拡散活性化、統合、ホップフィールド連想の7チャネル認知的検索を実装、LLM不使用のモードAでLoCoMoベンチマーク70.4%を達成。(4) ソフトプロンプトによる長期暗黙記憶を実現するメモリパラメータ化。(5) 完全なメモリライフサイクルを自動化するゼロ摩擦自動認知パイプライン。
LoCoMoベンチマークにおいて、V3.3はモードA(LLM不使用)で70.4%を達成、マルチホップで+23.8pp、敵対的タスクで+12.7ppの改善を示した。V3.2はモードAで74.8%、モードCで87.7%を達成しており、4.4ppの差は意図的なアーキテクチャ上のトレードオフを反映する。SLM V3.3はElastic License 2.0の下でオープンソース化され、CPUのみで完全動作し、月間5,000以上のダウンロードを記録している。
English
AI coding agents operate in a paradox: they possess vast parametric knowledge yet cannot remember a conversation from an hour ago. Existing memory systems store text in vector databases with single-channel retrieval, require cloud LLMs for core operations, and implement none of the cognitive processes that make human memory effective.
We present SuperLocalMemory V3.3 ("The Living Brain"), a local-first agent memory system implementing the full cognitive memory taxonomy with mathematical lifecycle dynamics. Building on the information-geometric foundations of V3.2 (arXiv:2603.14588), we introduce five contributions: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) -- a new metric on the Gaussian statistical manifold achieving 100% precision at preferring high-fidelity embeddings over quantized ones (vs 85.6% for cosine), with zero prior art; (2) Ebbinghaus Adaptive Forgetting with lifecycle-aware quantization -- the first mathematical forgetting curve in local agent memory coupled to progressive embedding compression, achieving 6.7x discriminative power; (3) 7-channel cognitive retrieval spanning semantic, keyword, entity graph, temporal, spreading activation, consolidation, and Hopfield associative channels, achieving 70.4% on LoCoMo in zero-LLM Mode A; (4) memory parameterization implementing Long-Term Implicit memory via soft prompts; (5) zero-friction auto-cognitive pipeline automating the complete memory lifecycle.
On LoCoMo, V3.3 achieves 70.4% in Mode A (zero-LLM), with +23.8pp on multi-hop and +12.7pp on adversarial. V3.2 achieved 74.8% Mode A and 87.7% Mode C; the 4.4pp gap reflects a deliberate architectural trade-off. SLM V3.3 is open source under the Elastic License 2.0, runs entirely on CPU, with over 5,000 monthly downloads.