Memoria Estructurada de Eventos Episódicos
Structured Episodic Event Memory
January 10, 2026
Autores: Zhengxuan Lu, Dongfang Li, Yukun Shi, Beilun Wang, Longyue Wang, Baotian Hu
cs.AI
Resumen
Los enfoques actuales de memoria en Modelos de Lenguaje a Gran Escala (LLM) se basan predominantemente en la Generación Aumentada por Recuperación (RAG) estática, lo que a menudo resulta en una recuperación dispersa y no logra capturar las dependencias estructurales necesarias para el razonamiento complejo. Para los agentes autónomos, estas arquitecturas pasivas y planas carecen de la organización cognitiva necesaria para modelar la naturaleza dinámica y asociativa de la interacción a largo plazo. Para abordar esto, proponemos la Memoria de Eventos Episódicos Estructurada (SEEM), un marco jerárquico que sinergiza una capa de memoria en grafo para hechos relacionales con una capa de memoria episódica dinámica para la progresión narrativa. Basada en la teoría de marcos cognitivos, SEEM transforma los flujos de interacción en Marcos de Eventos Episódicos (EEF) estructurados anclados por punteros de procedencia precisos. Además, introducimos un mecanismo de fusión asociativa agéntica y de Expansión de Procedencia Inversa (RPE) para reconstruir contextos narrativos coherentes a partir de evidencia fragmentada. Los resultados experimentales en los benchmarks LoCoMo y LongMemEval demuestran que SEEM supera significativamente a los métodos base, permitiendo a los agentes mantener una coherencia narrativa y consistencia lógica superiores.
English
Current approaches to memory in Large Language Models (LLMs) predominantly rely on static Retrieval-Augmented Generation (RAG), which often results in scattered retrieval and fails to capture the structural dependencies required for complex reasoning. For autonomous agents, these passive and flat architectures lack the cognitive organization necessary to model the dynamic and associative nature of long-term interaction. To address this, we propose Structured Episodic Event Memory (SEEM), a hierarchical framework that synergizes a graph memory layer for relational facts with a dynamic episodic memory layer for narrative progression. Grounded in cognitive frame theory, SEEM transforms interaction streams into structured Episodic Event Frames (EEFs) anchored by precise provenance pointers. Furthermore, we introduce an agentic associative fusion and Reverse Provenance Expansion (RPE) mechanism to reconstruct coherent narrative contexts from fragmented evidence. Experimental results on the LoCoMo and LongMemEval benchmarks demonstrate that SEEM significantly outperforms baselines, enabling agents to maintain superior narrative coherence and logical consistency.