ChatPaper.aiChatPaper

SuperLocalMemory V3.3: Das lebende Gehirn – Biologisch inspirierte Vergessensprozesse, kognitive Quantisierung und mehrkanalige Abfrage für Zero-LLM-Agenten-Gedächtnissysteme

SuperLocalMemory V3.3: The Living Brain -- Biologically-Inspired Forgetting, Cognitive Quantization, and Multi-Channel Retrieval for Zero-LLM Agent Memory Systems

April 6, 2026
Autoren: Varun Pratap Bhardwaj
cs.AI

Zusammenfassung

KI-Coding-Agenten agieren in einem Paradoxon: Sie verfügen über umfangreiches parametrisches Wissen, können sich aber nicht an ein Gespräch von vor einer Stunde erinnern. Bestehende Gedächtnissysteme speichern Text in Vektordatenbanken mit Single-Channel-Retrieval, benötigen Cloud-LLMs für Kernoperationen und implementieren keine der kognitiven Prozesse, die menschliches Erinnern effektiv machen. Wir präsentieren SuperLocalMemory V3.3 ("The Living Brain"), ein lokal-first Agenten-Gedächtnissystem, das die vollständige kognitive Gedächtnistaxonomie mit mathematischen Lebenszyklusdynamiken implementiert. Aufbauend auf den informationstheoretisch-geometrischen Grundlagen von V3.2 (arXiv:2603.14588) führen wir fünf Beiträge ein: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) – eine neue Metrik auf dem Gaußschen statistischen Mannigfaltigkeit, die eine 100%ige Präzision bei der Bevorzugung hochauflösender Embeddings gegenüber quantisierten erreicht (vs. 85,6% bei Kosinus), ohne bekannten Vorläufer; (2) Ebbinghaus Adaptive Forgetting mit lebenszyklusbewusster Quantisierung – die erste mathematische Vergessenskurve in einem lokalen Agentengedächtnis, gekoppelt mit progressiver Embedding-Kompression, die eine 6,7-fache diskriminative Leistung erzielt; (3) 7-Kanal kognitives Retrieval, das semantische, Keyword-, Entitätsgraphen-, temporale, Spread-Activation-, Konsolidierungs- und Hopfield-Assoziationskanäle umfasst und 70,4% auf LoCoMo im Zero-LLM-Modus A erreicht; (4) Gedächtnisparametrisierung, die Langzeit-Implizites Gedächtnis via Soft Prompts implementiert; (5) Zero-Friction Auto-Cognitive Pipeline, die den vollständigen Gedächtnislebenszyklus automatisiert. Auf LoCoMo erreicht V3.3 70,4% im Modus A (Zero-LLM), mit +23,8 Prozentpunkten bei Multi-Hop und +12,7 Prozentpunkten bei adversariellen Abfragen. V3.2 erreichte 74,8% in Modus A und 87,7% in Modus C; die 4,4 Prozentpunkte Differenz spiegelt eine bewusste architektonische Abwägung wider. SLM V3.3 ist quelloffen unter der Elastic License 2.0, läuft vollständig auf CPU und verzeichnet über 5.000 Downloads monatlich.
English
AI coding agents operate in a paradox: they possess vast parametric knowledge yet cannot remember a conversation from an hour ago. Existing memory systems store text in vector databases with single-channel retrieval, require cloud LLMs for core operations, and implement none of the cognitive processes that make human memory effective. We present SuperLocalMemory V3.3 ("The Living Brain"), a local-first agent memory system implementing the full cognitive memory taxonomy with mathematical lifecycle dynamics. Building on the information-geometric foundations of V3.2 (arXiv:2603.14588), we introduce five contributions: (1) Fisher-Rao Quantization-Aware Distance (FRQAD) -- a new metric on the Gaussian statistical manifold achieving 100% precision at preferring high-fidelity embeddings over quantized ones (vs 85.6% for cosine), with zero prior art; (2) Ebbinghaus Adaptive Forgetting with lifecycle-aware quantization -- the first mathematical forgetting curve in local agent memory coupled to progressive embedding compression, achieving 6.7x discriminative power; (3) 7-channel cognitive retrieval spanning semantic, keyword, entity graph, temporal, spreading activation, consolidation, and Hopfield associative channels, achieving 70.4% on LoCoMo in zero-LLM Mode A; (4) memory parameterization implementing Long-Term Implicit memory via soft prompts; (5) zero-friction auto-cognitive pipeline automating the complete memory lifecycle. On LoCoMo, V3.3 achieves 70.4% in Mode A (zero-LLM), with +23.8pp on multi-hop and +12.7pp on adversarial. V3.2 achieved 74.8% Mode A and 87.7% Mode C; the 4.4pp gap reflects a deliberate architectural trade-off. SLM V3.3 is open source under the Elastic License 2.0, runs entirely on CPU, with over 5,000 monthly downloads.
PDF31April 18, 2026