ChatPaper.aiChatPaper

SuperLocalMemory V3 : Fondements information-géométriques pour la mémoire d'agent d'entreprise Zero-LLM

SuperLocalMemory V3: Information-Geometric Foundations for Zero-LLM Enterprise Agent Memory

March 15, 2026
Auteurs: Varun Pratap Bhardwaj
cs.AI

Résumé

La mémoire persistante est une capacité centrale pour les agents d'IA, mais les fondements mathématiques de la récupération en mémoire, de la gestion du cycle de vie et de la cohérence restent inexplorés. Les systèmes actuels utilisent la similarité cosinus pour la récupération, une décroissance heuristique pour la saillance, et n'offrent aucune détection formelle des contradictions. Nous établissons des fondements information-géométriques à travers trois contributions. Premièrement, une métrique de récupération dérivée de la structure d'information de Fisher des familles gaussiennes diagonales, satisfaisant les axiomes d'une métrique riemannienne, invariante sous les statistiques exhaustives, et calculable en temps O(d). Deuxièmement, un cycle de vie de la mémoire formulé comme une dynamique de Langevin riemannienne avec preuve d'existence et d'unicité de la distribution stationnaire via l'équation de Fokker-Planck, remplaçant la décroissance manuelle par des garanties de convergence fondées en principe. Troisièmement, un modèle de faisceau cellulaire où les classes de cohomologie non triviales de premier ordre correspondent précisément aux contradictions irréconciliables entre les contextes de mémoire. Sur le benchmark LoCoMo, les couches mathématiques améliorent de +12,7 points de pourcentage les bases de référence d'ingénierie sur six conversations, atteignant +19,9 pp sur les dialogues les plus complexes. Une architecture de récupération à quatre canaux atteint 75 % de précision sans dépendance au cloud. Les résultats augmentés par le cloud atteignent 87,7 %. Une configuration sans grand modèle de langue satisfait aux exigences de souveraineté des données de la loi européenne sur l'IA par conception architecturale. À notre connaissance, il s'agit du premier travail établissant des fondements information-géométriques, faisceautiques et stochastico-dynamiques pour les systèmes de mémoire des agents d'IA.
English
Persistent memory is a central capability for AI agents, yet the mathematical foundations of memory retrieval, lifecycle management, and consistency remain unexplored. Current systems employ cosine similarity for retrieval, heuristic decay for salience, and provide no formal contradiction detection. We establish information-geometric foundations through three contributions. First, a retrieval metric derived from the Fisher information structure of diagonal Gaussian families, satisfying Riemannian metric axioms, invariant under sufficient statistics, and computable in O(d) time. Second, memory lifecycle formulated as Riemannian Langevin dynamics with proven existence and uniqueness of the stationary distribution via the Fokker-Planck equation, replacing hand-tuned decay with principled convergence guarantees. Third, a cellular sheaf model where non-trivial first cohomology classes correspond precisely to irreconcilable contradictions across memory contexts. On the LoCoMo benchmark, the mathematical layers yield +12.7 percentage points over engineering baselines across six conversations, reaching +19.9 pp on the most challenging dialogues. A four-channel retrieval architecture achieves 75% accuracy without cloud dependency. Cloud-augmented results reach 87.7%. A zero-LLM configuration satisfies EU AI Act data sovereignty requirements by architectural design. To our knowledge, this is the first work establishing information-geometric, sheaf-theoretic, and stochastic-dynamical foundations for AI agent memory systems.
PDF12March 19, 2026