SuperLocalMemory V3.3 : Le Cerveau Vivant — Oubli Bio-inspiré, Quantification Cognitive et Récupération Multi-Canaux pour les Systèmes de Mémoire d'Agents Zéro-LLM
SuperLocalMemory V3.3: The Living Brain -- Biologically-Inspired Forgetting, Cognitive Quantization, and Multi-Channel Retrieval for Zero-LLM Agent Memory Systems
April 6, 2026
Auteurs: Varun Pratap Bhardwaj
cs.AI
Résumé
Les assistants de codage IA évoluent dans un paradoxe : ils possèdent de vastes connaissances paramétriques mais sont incapables de se souvenir d’une conversation datant d’une heure. Les systèmes de mémoire existants stockent du texte dans des bases de données vectorielles avec un système de récupération monocanal, nécessitent des LLM cloud pour leurs opérations principales, et n’implémentent aucun des processus cognitifs qui rendent la mémoire humaine efficace.
Nous présentons SuperLocalMemory V3.3 (« Le Cerveau Vivant »), un système de mémoire pour agents, local-first, implémentant la taxonomie cognitive complète de la mémoire avec une dynamique mathématique de cycle de vie. S’appuyant sur les fondations information-géométriques de la V3.2 (arXiv:2603.14588), nous introduisons cinq contributions : (1) la *Fisher-Rao Quantization-Aware Distance (FRQAD)* — une nouvelle métrique sur la variété statistique gaussienne atteignant 100 % de précision pour privilégier les embeddings haute fidélité par rapport aux versions quantifiées (contre 85,6 % pour la similarité cosinus), sans aucun antécédent technique ; (2) l'*Oubli Adaptatif d'Ebbinghaus* avec quantification sensible au cycle de vie — la première courbe d'oubli mathématique dans une mémoire d'agent locale, couplée à une compression progressive des embeddings, obtenant un pouvoir discriminant multiplié par 6,7 ; (3) une récupération cognitive à 7 canaux couvrant les canaux sémantique, par mots-clés, par graphe d'entités, temporel, par activation propagée, par consolidation et par association de Hopfield, atteignant 70,4 % sur LoCoMo dans le Mode A (zéro-LLM) ; (4) une paramétrisation de la mémoire implémentant la mémoire implicite à long terme via des *soft prompts* ; (5) un pipeline auto-cognitif à frottement nul automatisant le cycle de vie complet de la mémoire.
Sur LoCoMo, la V3.3 atteint 70,4 % dans le Mode A (zéro-LLM), avec une amélioration de +23,8 points de pourcentage sur les requêtes multi-sauts et de +12,7 pp sur les requêtes adverses. La V3.2 avait atteint 74,8 % en Mode A et 87,7 % en Mode C ; l'écart de 4,4 pp reflète un compromis architectural délibéré. SLM V3.3 est open source sous licence Elastic 2.0, fonctionne entièrement sur CPU et dépasse les 5 000 téléchargements mensuels.
English
AI coding agents operate in a paradox: they possess vast parametric knowledge yet cannot remember a conversation from an hour ago. Existing memory systems store text in vector databases with single-channel retrieval, require cloud LLMs for core operations, and implement none of the cognitive processes that make human memory effective.
We present SuperLocalMemory V3.3 ("The Living Brain"), a local-first agent memory system implementing the full cognitive memory taxonomy with mathematical lifecycle dynamics. Building on the information-geometric foundations of V3.2 (arXiv:2603.14588), we introduce five contributions: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) -- a new metric on the Gaussian statistical manifold achieving 100% precision at preferring high-fidelity embeddings over quantized ones (vs 85.6% for cosine), with zero prior art; (2) Ebbinghaus Adaptive Forgetting with lifecycle-aware quantization -- the first mathematical forgetting curve in local agent memory coupled to progressive embedding compression, achieving 6.7x discriminative power; (3) 7-channel cognitive retrieval spanning semantic, keyword, entity graph, temporal, spreading activation, consolidation, and Hopfield associative channels, achieving 70.4% on LoCoMo in zero-LLM Mode A; (4) memory parameterization implementing Long-Term Implicit memory via soft prompts; (5) zero-friction auto-cognitive pipeline automating the complete memory lifecycle.
On LoCoMo, V3.3 achieves 70.4% in Mode A (zero-LLM), with +23.8pp on multi-hop and +12.7pp on adversarial. V3.2 achieved 74.8% Mode A and 87.7% Mode C; the 4.4pp gap reflects a deliberate architectural trade-off. SLM V3.3 is open source under the Elastic License 2.0, runs entirely on CPU, with over 5,000 monthly downloads.