ChatPaper.aiChatPaper

SuperLocalMemory V3.3: Il Cervello Vivente -- Dimenticanza Bio-ispirata, Quantizzazione Cognitiva e Recupero Multi-Canale per Sistemi di Memoria di Agenti Zero-LLM

SuperLocalMemory V3.3: The Living Brain -- Biologically-Inspired Forgetting, Cognitive Quantization, and Multi-Channel Retrieval for Zero-LLM Agent Memory Systems

April 6, 2026
Autori: Varun Pratap Bhardwaj
cs.AI

Abstract

Gli agenti di codifica IA operano in un paradosso: possiedono una vasta conoscenza parametrica ma non riescono a ricordare una conversazione di un'ora fa. I sistemi di memoria esistenti memorizzano il testo in database vettoriali con recupero a canale singolo, richiedono LLM cloud per le operazioni principali e non implementano nessuno dei processi cognitivi che rendono efficace la memoria umana. Presentiamo SuperLocalMemory V3.3 ("The Living Brain"), un sistema di memoria per agenti local-first che implementa l'intera tassonomia della memoria cognitiva con dinamiche matematiche del ciclo di vita. Basandosi sulle fondamenta geometro-informazionali della V3.2 (arXiv:2603.14588), introduciamo cinque contributi: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) – una nuova metrica sulla varietà statistica gaussiana che raggiunge il 100% di precisione nel preferire embedding ad alta fedeltà rispetto a quelli quantizzati (contro l'85,6% del coseno), senza precedenti; (2) Dimenticanza Adattiva di Ebbinghaus con quantizzazione consapevole del ciclo di vita – la prima curva di dimenticanza matematica nella memoria locale degli agenti accoppiata a una compressione progressiva degli embedding, che raggiunge un potere discriminativo 6,7x superiore; (3) Recupero cognitivo a 7 canali che comprende canali semantici, di parole chiave, di grafi di entità, temporali, di attivazione a diffusione, di consolidamento e associativi di Hopfield, raggiungendo il 70,4% su LoCoMo nella Modalità A senza LLM; (4) Parametrizzazione della memoria che implementa la memoria Implicita a Lungo Termine tramite soft prompt; (5) Pipeline auto-cognitiva a attrito zero che automatizza l'intero ciclo di vita della memoria. Su LoCoMo, la V3.3 raggiunge il 70,4% nella Modalità A (zero-LLM), con un miglioramento di +23,8 punti percentuali sui multi-hop e +12,7 punti percentuali sugli adversarial. La V3.2 aveva raggiunto il 74,8% in Modalità A e l'87,7% in Modalità C; il divario di 4,4 punti percentuali riflette un compromesso architetturale deliberato. SLM V3.3 è open source sotto la licenza Elastic 2.0, funziona interamente su CPU e conta oltre 5.000 download mensili.
English
AI coding agents operate in a paradox: they possess vast parametric knowledge yet cannot remember a conversation from an hour ago. Existing memory systems store text in vector databases with single-channel retrieval, require cloud LLMs for core operations, and implement none of the cognitive processes that make human memory effective. We present SuperLocalMemory V3.3 ("The Living Brain"), a local-first agent memory system implementing the full cognitive memory taxonomy with mathematical lifecycle dynamics. Building on the information-geometric foundations of V3.2 (arXiv:2603.14588), we introduce five contributions: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) -- a new metric on the Gaussian statistical manifold achieving 100% precision at preferring high-fidelity embeddings over quantized ones (vs 85.6% for cosine), with zero prior art; (2) Ebbinghaus Adaptive Forgetting with lifecycle-aware quantization -- the first mathematical forgetting curve in local agent memory coupled to progressive embedding compression, achieving 6.7x discriminative power; (3) 7-channel cognitive retrieval spanning semantic, keyword, entity graph, temporal, spreading activation, consolidation, and Hopfield associative channels, achieving 70.4% on LoCoMo in zero-LLM Mode A; (4) memory parameterization implementing Long-Term Implicit memory via soft prompts; (5) zero-friction auto-cognitive pipeline automating the complete memory lifecycle. On LoCoMo, V3.3 achieves 70.4% in Mode A (zero-LLM), with +23.8pp on multi-hop and +12.7pp on adversarial. V3.2 achieved 74.8% Mode A and 87.7% Mode C; the 4.4pp gap reflects a deliberate architectural trade-off. SLM V3.3 is open source under the Elastic License 2.0, runs entirely on CPU, with over 5,000 monthly downloads.
PDF42April 18, 2026