ChatPaper.aiChatPaper

SuperLocalMemory V3.3: Живой мозг — Биологически инспирированное забывание, когвантование и многоканальное извлечение для систем памяти агентов Zero-LLM

SuperLocalMemory V3.3: The Living Brain -- Biologically-Inspired Forgetting, Cognitive Quantization, and Multi-Channel Retrieval for Zero-LLM Agent Memory Systems

April 6, 2026
Авторы: Varun Pratap Bhardwaj
cs.AI

Аннотация

Искусственные интеллектуальные агенты для программирования функционируют в парадоксе: они обладают обширными параметрическими знаниями, но не способны запомнить разговор часовой давности. Существующие системы памяти хранят текст в векторных базах данных с одноканальным извлечением, требуют использования облачных больших языковых моделей (LLM) для основных операций и не реализуют ни одного из когнитивных процессов, обеспечивающих эффективность человеческой памяти. Мы представляем SuperLocalMemory V3.3 («Живой мозг») — локальную систему памяти агентов, реализующую полную когнитивную таксономию памяти с математической динамикой жизненного цикла. Развивая информационно-геометрические основы версии V3.2 (arXiv:2603.14588), мы вводим пять ключевых нововведений: (1) Квантование-осведомлённое расстояние Фишера-Рао (FRQAD) — новую метрику на гауссовом статистическом многообразии, обеспечивающую 100% точность в предпочтении высокоточных эмбеддингов перед квантованными (против 85,6% у косинусного расстояния) при отсутствии аналогов; (2) Адаптивное забывание по Эббингаузу с квантованием, учитывающим жизненный цикл — первую математическую кривую забывания в локальной памяти агентов, связанную с прогрессивным сжатием эмбеддингов, что обеспечивает 6,7-кратную дискриминативную способность; (3) 7-канальное когнитивное извлечение, охватывающее семантический, ключевых слов, графа сущностей, временной, канал распространяющейся активации, консолидации и ассоциативный канал Хопфилда, достигающее 70,4% на LoCoMo в Режиме A без использования LLM; (4) Параметризацию памяти, реализующую долговременную имплицитную память через мягкие промпты; (5) Автоматизированный когнитивный конвейер с нулевым трением, автоматизирующий полный жизненный цикл памяти. На тесте LoCoMo версия V3.3 достигает 70,4% в Режиме А (без LLM), с улучшением на +23,8 п.п. по многошаговым запросам и на +12,7 п.п. по состязательным. Версия V3.2 показывала 74,8% в Режиме А и 87,7% в Режиме С; разница в 4,4 п.п. отражает осознанный архитектурный компромисс. SLM V3.3 имеет открытый исходный код под лицензией Elastic 2.0, работает полностью на CPU и насчитывает более 5000 ежемесячных загрузок.
English
AI coding agents operate in a paradox: they possess vast parametric knowledge yet cannot remember a conversation from an hour ago. Existing memory systems store text in vector databases with single-channel retrieval, require cloud LLMs for core operations, and implement none of the cognitive processes that make human memory effective. We present SuperLocalMemory V3.3 ("The Living Brain"), a local-first agent memory system implementing the full cognitive memory taxonomy with mathematical lifecycle dynamics. Building on the information-geometric foundations of V3.2 (arXiv:2603.14588), we introduce five contributions: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) -- a new metric on the Gaussian statistical manifold achieving 100% precision at preferring high-fidelity embeddings over quantized ones (vs 85.6% for cosine), with zero prior art; (2) Ebbinghaus Adaptive Forgetting with lifecycle-aware quantization -- the first mathematical forgetting curve in local agent memory coupled to progressive embedding compression, achieving 6.7x discriminative power; (3) 7-channel cognitive retrieval spanning semantic, keyword, entity graph, temporal, spreading activation, consolidation, and Hopfield associative channels, achieving 70.4% on LoCoMo in zero-LLM Mode A; (4) memory parameterization implementing Long-Term Implicit memory via soft prompts; (5) zero-friction auto-cognitive pipeline automating the complete memory lifecycle. On LoCoMo, V3.3 achieves 70.4% in Mode A (zero-LLM), with +23.8pp on multi-hop and +12.7pp on adversarial. V3.2 achieved 74.8% Mode A and 87.7% Mode C; the 4.4pp gap reflects a deliberate architectural trade-off. SLM V3.3 is open source under the Elastic License 2.0, runs entirely on CPU, with over 5,000 monthly downloads.
PDF31April 18, 2026