SuperLocalMemory V3: Fundamentos da Geometria da Informação para Memória de Agentes Corporativos Zero-LLM
SuperLocalMemory V3: Information-Geometric Foundations for Zero-LLM Enterprise Agent Memory
March 15, 2026
Autores: Varun Pratap Bhardwaj
cs.AI
Resumo
A memória persistente é uma capacidade central para agentes de IA, no entanto, os fundamentos matemáticos da recuperação de memória, gestão do ciclo de vida e consistência permanecem inexplorados. Os sistemas atuais empregam similaridade de cosseno para recuperação, decadência heurística para saliência e não fornecem deteção formal de contradições.
Estabelecemos fundamentos informação-geométricos através de três contribuições. Primeiro, uma métrica de recuperação derivada da estrutura de informação de Fisher de famílias Gaussianas diagonais, satisfazendo os axiomas de métrica Riemanniana, invariante sob estatísticas suficientes e computável em tempo O(d). Segundo, o ciclo de vida da memória formulado como dinâmica de Langevin Riemanniana com existência e unicidade comprovadas da distribuição estacionária via a equação de Fokker-Planck, substituindo a decadência manualmente ajustada por garantias de convergência fundamentadas. Terceiro, um modelo de feixe celular onde as classes de primeira cohomologia não triviais correspondem precisamente a contradições irreconciliáveis entre contextos de memória.
No benchmark LoCoMo, as camadas matemáticas produzem +12,7 pontos percentuais sobre as linhas de base de engenharia em seis conversas, atingindo +19,9 pp nos diálogos mais desafiadores. Uma arquitetura de recuperação de quatro canais atinge 75% de precisão sem dependência da nuvem. Resultados aumentados por computação em nuvem atingem 87,7%. Uma configuração zero-LLM satisfaz os requisitos de soberania de dados do Ato de IA da UE por design arquitetónico. Até onde sabemos, este é o primeiro trabalho a estabelecer fundamentos informação-geométricos, feixe-teóricos e estocástico-dinâmicos para sistemas de memória de agentes de IA.
English
Persistent memory is a central capability for AI agents, yet the mathematical foundations of memory retrieval, lifecycle management, and consistency remain unexplored. Current systems employ cosine similarity for retrieval, heuristic decay for salience, and provide no formal contradiction detection.
We establish information-geometric foundations through three contributions. First, a retrieval metric derived from the Fisher information structure of diagonal Gaussian families, satisfying Riemannian metric axioms, invariant under sufficient statistics, and computable in O(d) time. Second, memory lifecycle formulated as Riemannian Langevin dynamics with proven existence and uniqueness of the stationary distribution via the Fokker-Planck equation, replacing hand-tuned decay with principled convergence guarantees. Third, a cellular sheaf model where non-trivial first cohomology classes correspond precisely to irreconcilable contradictions across memory contexts.
On the LoCoMo benchmark, the mathematical layers yield +12.7 percentage points over engineering baselines across six conversations, reaching +19.9 pp on the most challenging dialogues. A four-channel retrieval architecture achieves 75% accuracy without cloud dependency. Cloud-augmented results reach 87.7%. A zero-LLM configuration satisfies EU AI Act data sovereignty requirements by architectural design. To our knowledge, this is the first work establishing information-geometric, sheaf-theoretic, and stochastic-dynamical foundations for AI agent memory systems.