ChatPaper.aiChatPaper

SuperLocalMemory V3: Fundamentos de la Geometría de la Información para la Memoria de Agentes Empresariales Zero-LLM

SuperLocalMemory V3: Information-Geometric Foundations for Zero-LLM Enterprise Agent Memory

March 15, 2026
Autores: Varun Pratap Bhardwaj
cs.AI

Resumen

La memoria persistente es una capacidad fundamental para los agentes de IA, sin embargo, los fundamentos matemáticos de la recuperación de memoria, la gestión del ciclo de vida y la coherencia permanecen inexplorados. Los sistemas actuales emplean similitud coseno para la recuperación, decaimiento heurístico para la relevancia, y no ofrecen una detección formal de contradicciones. Establecemos fundamentos de geometría de la información mediante tres contribuciones. Primero, una métrica de recuperación derivada de la estructura de información de Fisher de familias gaussianas diagonales, que satisface los axiomas de métrica riemanniana, es invariante bajo estadísticos suficientes y computable en tiempo O(d). Segundo, el ciclo de vida de la memoria formulado como dinámicas de Langevin riemannianas con existencia y unicidad probadas de la distribución estacionaria mediante la ecuación de Fokker-Planck, reemplazando el decaimiento manual con garantías de convergencia fundamentadas. Tercero, un modelo de haz celular donde las clases de cohomología no triviales de primer orden corresponden precisamente a contradicciones irreconciliables entre contextos de memoria. En el benchmark LoCoMo, las capas matemáticas producen +12.7 puntos porcentuales sobre líneas base de ingeniería en seis conversaciones, alcanzando +19.9 pp en los diálogos más desafiantes. Una arquitectura de recuperación de cuatro canales logra 75% de precisión sin dependencia de la nube. Los resultados aumentados con cloud alcanzan 87.7%. Una configuración cero-LLM satisface los requisitos de soberanía de datos de la Ley de IA de la UE por diseño arquitectónico. Hasta donde sabemos, este es el primer trabajo que establece fundamentos de geometría de la información, teoría de haces y dinámica estocástica para sistemas de memoria de agentes de IA.
English
Persistent memory is a central capability for AI agents, yet the mathematical foundations of memory retrieval, lifecycle management, and consistency remain unexplored. Current systems employ cosine similarity for retrieval, heuristic decay for salience, and provide no formal contradiction detection. We establish information-geometric foundations through three contributions. First, a retrieval metric derived from the Fisher information structure of diagonal Gaussian families, satisfying Riemannian metric axioms, invariant under sufficient statistics, and computable in O(d) time. Second, memory lifecycle formulated as Riemannian Langevin dynamics with proven existence and uniqueness of the stationary distribution via the Fokker-Planck equation, replacing hand-tuned decay with principled convergence guarantees. Third, a cellular sheaf model where non-trivial first cohomology classes correspond precisely to irreconcilable contradictions across memory contexts. On the LoCoMo benchmark, the mathematical layers yield +12.7 percentage points over engineering baselines across six conversations, reaching +19.9 pp on the most challenging dialogues. A four-channel retrieval architecture achieves 75% accuracy without cloud dependency. Cloud-augmented results reach 87.7%. A zero-LLM configuration satisfies EU AI Act data sovereignty requirements by architectural design. To our knowledge, this is the first work establishing information-geometric, sheaf-theoretic, and stochastic-dynamical foundations for AI agent memory systems.
PDF12March 19, 2026