ChatPaper.aiChatPaper

SuperLocalMemory V3.3: El Cerebro Viviente -- Olvido Bioinspirado, Cuantización Cognitiva y Recuperación Multicanal para Sistemas de Memoria de Agentes Zero-LLM

SuperLocalMemory V3.3: The Living Brain -- Biologically-Inspired Forgetting, Cognitive Quantization, and Multi-Channel Retrieval for Zero-LLM Agent Memory Systems

April 6, 2026
Autores: Varun Pratap Bhardwaj
cs.AI

Resumen

Los agentes de programación con IA operan en una paradoja: poseen un vasto conocimiento paramétrico pero no pueden recordar una conversación de hace una hora. Los sistemas de memoria existentes almacenan texto en bases de datos vectoriales con recuperación monocanal, requieren LLMs en la nube para operaciones centrales, y no implementan ninguno de los procesos cognitivos que hacen efectiva la memoria humana. Presentamos SuperLocalMemory V3.3 ("El Cerebro Viviente"), un sistema de memoria para agentes de tipo *local-first* que implementa la taxonomía cognitiva completa de la memoria con dinámicas matemáticas de ciclo de vida. Partiendo de los fundamentos de geometría de la información de la V3.2 (arXiv:2603.14588), introducimos cinco contribuciones: (1) *Fisher-Rao Quantization-Aware Distance* (FRQAD) – una nueva métrica en el manifold estadístico Gaussiano que logra un 100% de precisión al preferir *embeddings* de alta fidelidad sobre los cuantificados (frente al 85.6% del coseno), sin arte previo conocido; (2) *Olvido Adaptativo de Ebbinghaus* con cuantificación sensible al ciclo de vida – la primera curva matemática de olvido en memoria de agentes local acoplada a compresión progresiva de *embeddings*, logrando un poder discriminativo 6.7 veces mayor; (3) Recuperación cognitiva de 7 canales que abarca canales semánticos, de palabras clave, de grafos de entidades, temporales, de activación por propagación, de consolidación y asociativos de Hopfield, logrando un 70.4% en LoCoMo en el Modo A (sin LLM); (4) Parametrización de la memoria que implementa memoria implícita a largo plazo mediante *soft prompts*; (5) Pipeline auto-cognitivo de *cero fricción* que automatiza el ciclo de vida completo de la memoria. En LoCoMo, la V3.3 alcanza un 70.4% en el Modo A (sin LLM), con una mejora de +23.8 puntos porcentuales en consultas de múltiples saltos y +12.7 pp en adversarias. La V3.2 logró un 74.8% en el Modo A y un 87.7% en el Modo C; la diferencia de 4.4 pp refleja una compensación arquitectónica deliberada. SLM V3.3 es de código abierto bajo la Licencia Elástica 2.0, funciona completamente en CPU y cuenta con más de 5,000 descargas mensuales.
English
AI coding agents operate in a paradox: they possess vast parametric knowledge yet cannot remember a conversation from an hour ago. Existing memory systems store text in vector databases with single-channel retrieval, require cloud LLMs for core operations, and implement none of the cognitive processes that make human memory effective. We present SuperLocalMemory V3.3 ("The Living Brain"), a local-first agent memory system implementing the full cognitive memory taxonomy with mathematical lifecycle dynamics. Building on the information-geometric foundations of V3.2 (arXiv:2603.14588), we introduce five contributions: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) -- a new metric on the Gaussian statistical manifold achieving 100% precision at preferring high-fidelity embeddings over quantized ones (vs 85.6% for cosine), with zero prior art; (2) Ebbinghaus Adaptive Forgetting with lifecycle-aware quantization -- the first mathematical forgetting curve in local agent memory coupled to progressive embedding compression, achieving 6.7x discriminative power; (3) 7-channel cognitive retrieval spanning semantic, keyword, entity graph, temporal, spreading activation, consolidation, and Hopfield associative channels, achieving 70.4% on LoCoMo in zero-LLM Mode A; (4) memory parameterization implementing Long-Term Implicit memory via soft prompts; (5) zero-friction auto-cognitive pipeline automating the complete memory lifecycle. On LoCoMo, V3.3 achieves 70.4% in Mode A (zero-LLM), with +23.8pp on multi-hop and +12.7pp on adversarial. V3.2 achieved 74.8% Mode A and 87.7% Mode C; the 4.4pp gap reflects a deliberate architectural trade-off. SLM V3.3 is open source under the Elastic License 2.0, runs entirely on CPU, with over 5,000 monthly downloads.
PDF31April 18, 2026