ChatPaper.aiChatPaper

SuperLocalMemory V3.3: O Cérebro Vivo — Esquecimento Bioinspirado, Quantização Cognitiva e Recuperação Multicanal para Sistemas de Memória de Agentes Zero-LLM

SuperLocalMemory V3.3: The Living Brain -- Biologically-Inspired Forgetting, Cognitive Quantization, and Multi-Channel Retrieval for Zero-LLM Agent Memory Systems

April 6, 2026
Autores: Varun Pratap Bhardwaj
cs.AI

Resumo

Os agentes de codificação de IA operam em um paradoxo: possuem vasto conhecimento paramétrico, mas não conseguem lembrar uma conversa de uma hora atrás. Os sistemas de memória existentes armazenam texto em bancos de dados vetoriais com recuperação de canal único, requerem LLMs em nuvem para operações principais e não implementam nenhum dos processos cognitivos que tornam a memória humana eficaz. Apresentamos o SuperLocalMemory V3.3 ("O Cérebro Vivo"), um sistema de memória para agentes com arquitetura *local-first* que implementa a taxonomia cognitiva completa da memória com dinâmicas de ciclo de vida matemáticas. Construindo sobre os fundamentos de geometria da informação da V3.2 (arXiv:2603.14588), introduzimos cinco contribuições: (1) *Fisher-Rao Quantization-Aware Distance* (FRQAD) – uma nova métrica no manifold estatístico Gaussiano que alcança 100% de precisão ao preferir *embeddings* de alta fidelidade em vez de quantizados (vs. 85,6% do cosseno), sem *state of the art* prévio; (2) *Ebbinghaus Adaptive Forgetting* com quantização consciente do ciclo de vida – a primeira curva de esquecimento matemática em memória de agente local, acoplada à compressão progressiva de *embeddings*, alcançando 6,7x de poder discriminativo; (3) Recuperação cognitiva de 7 canais abrangendo canais semântico, de palavra-chave, de grafo de entidades, temporal, de ativação propagada, de consolidação e associativo de Hopfield, alcançando 70,4% no LoCoMo no Modo A (zero-LLM); (4) Parametrização de memória implementando memória implícita de longo prazo via *soft prompts*; (5) *Pipeline* auto-cognitivo de atrito zero que automatiza o ciclo de vida completo da memória. No LoCoMo, a V3.3 alcança 70,4% no Modo A (zero-LLM), com +23,8 p.p. em *multi-hop* e +12,7 p.p. em adversário. A V3.2 alcançou 74,8% no Modo A e 87,7% no Modo C; a diferença de 4,4 p.p. reflete uma troca arquitetural deliberada. O SLM V3.3 é *open source* sob a Licença Elástica 2.0, executa totalmente na CPU e possui mais de 5.000 downloads mensais.
English
AI coding agents operate in a paradox: they possess vast parametric knowledge yet cannot remember a conversation from an hour ago. Existing memory systems store text in vector databases with single-channel retrieval, require cloud LLMs for core operations, and implement none of the cognitive processes that make human memory effective. We present SuperLocalMemory V3.3 ("The Living Brain"), a local-first agent memory system implementing the full cognitive memory taxonomy with mathematical lifecycle dynamics. Building on the information-geometric foundations of V3.2 (arXiv:2603.14588), we introduce five contributions: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) -- a new metric on the Gaussian statistical manifold achieving 100% precision at preferring high-fidelity embeddings over quantized ones (vs 85.6% for cosine), with zero prior art; (2) Ebbinghaus Adaptive Forgetting with lifecycle-aware quantization -- the first mathematical forgetting curve in local agent memory coupled to progressive embedding compression, achieving 6.7x discriminative power; (3) 7-channel cognitive retrieval spanning semantic, keyword, entity graph, temporal, spreading activation, consolidation, and Hopfield associative channels, achieving 70.4% on LoCoMo in zero-LLM Mode A; (4) memory parameterization implementing Long-Term Implicit memory via soft prompts; (5) zero-friction auto-cognitive pipeline automating the complete memory lifecycle. On LoCoMo, V3.3 achieves 70.4% in Mode A (zero-LLM), with +23.8pp on multi-hop and +12.7pp on adversarial. V3.2 achieved 74.8% Mode A and 87.7% Mode C; the 4.4pp gap reflects a deliberate architectural trade-off. SLM V3.3 is open source under the Elastic License 2.0, runs entirely on CPU, with over 5,000 monthly downloads.
PDF42April 18, 2026