SuperLocalMemory V3: Information-geometrische Grundlagen für Null-LLM-Enterprise-Agenten-Speicher
SuperLocalMemory V3: Information-Geometric Foundations for Zero-LLM Enterprise Agent Memory
March 15, 2026
Autoren: Varun Pratap Bhardwaj
cs.AI
Zusammenfassung
Persistenter Speicher ist eine zentrale Fähigkeit für KI-Agenten, doch die mathematischen Grundlagen von Speicherzugriff, Lebenszyklusmanagement und Konsistenz bleiben unerforscht. Aktuelle Systeme verwenden Kosinusähnlichkeit für den Zugriff, heuristischen Verfall für Salienz und bieten keine formale Widerspruchserkennung.
Wir etablieren information-geometrische Grundlagen durch drei Beiträge. Erstens, ein Zugriffsmetrik abgeleitet aus der Fisher-Informationsstruktur diagonaler Gauß-Familien, das die Axiome einer Riemannschen Metrik erfüllt, unter suffizienten Statistiken invariant ist und in O(d)-Zeit berechenbar ist. Zweitens, Speicherlebenszyklus formuliert als Riemannsche Langevin-Dynamik mit bewiesener Existenz und Eindeutigkeit der stationären Verteilung über die Fokker-Planck-Gleichung, der abgestimmten Verfall durch prinzipielle Konvergenzgarantien ersetzt. Drittens, ein zellulärer Garbenmodell, bei dem nicht-triviale erste Kohomologieklassen genau irreduziblen Widersprüchen über Speicherkontexte entsprechen.
Auf dem LoCoMo-Benchmark erzielen die mathematischen Schichten +12,7 Prozentpunkte gegenüber technischen Baselines über sechs Konversationen, bis zu +19,9 pp bei den anspruchsvollsten Dialogen. Eine vierkanalige Zugriffsarchitektur erreicht 75% Genauigkeit ohne Cloud-Abhängigkeit. Cloud-augmentierte Ergebnisse erreichen 87,7%. Eine Null-LLM-Konfiguration erfüllt durch Architekturdesign die Datensouveränitätsanforderungen des EU-KI-Gesetzes. Unseres Wissens ist dies die erste Arbeit, die information-geometrische, garbentheoretische und stochastisch-dynamische Grundlagen für KI-Agenten-Speichersysteme etabliert.
English
Persistent memory is a central capability for AI agents, yet the mathematical foundations of memory retrieval, lifecycle management, and consistency remain unexplored. Current systems employ cosine similarity for retrieval, heuristic decay for salience, and provide no formal contradiction detection.
We establish information-geometric foundations through three contributions. First, a retrieval metric derived from the Fisher information structure of diagonal Gaussian families, satisfying Riemannian metric axioms, invariant under sufficient statistics, and computable in O(d) time. Second, memory lifecycle formulated as Riemannian Langevin dynamics with proven existence and uniqueness of the stationary distribution via the Fokker-Planck equation, replacing hand-tuned decay with principled convergence guarantees. Third, a cellular sheaf model where non-trivial first cohomology classes correspond precisely to irreconcilable contradictions across memory contexts.
On the LoCoMo benchmark, the mathematical layers yield +12.7 percentage points over engineering baselines across six conversations, reaching +19.9 pp on the most challenging dialogues. A four-channel retrieval architecture achieves 75% accuracy without cloud dependency. Cloud-augmented results reach 87.7%. A zero-LLM configuration satisfies EU AI Act data sovereignty requirements by architectural design. To our knowledge, this is the first work establishing information-geometric, sheaf-theoretic, and stochastic-dynamical foundations for AI agent memory systems.