ChatPaper.aiChatPaper

La Memoria Importa Más: La Memoria Centrada en Eventos como un Mapa Lógico para la Búsqueda y el Razonamiento de Agentes

Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning

January 8, 2026
Autores: Yuyang Hu, Jiongnan Liu, Jiejun Tan, Yutao Zhu, Zhicheng Dou
cs.AI

Resumen

Los modelos de lenguaje de gran escala (LLM) se despliegan cada vez más como agentes inteligentes que razonan, planifican e interactúan con su entorno. Para escalar eficazmente a escenarios de largo horizonte, una capacidad clave para dichos agentes es un mecanismo de memoria que pueda retener, organizar y recuperar experiencias pasadas para respaldar la toma de decisiones subsiguiente. Sin embargo, la mayoría de los enfoques existentes organizan y almacenan los recuerdos de manera plana y dependen de técnicas de recuperación simples basadas en similitudes. Incluso cuando se introduce memoria estructurada, los métodos existentes a menudo luchan por capturar explícitamente las relaciones lógicas entre experiencias o unidades de memoria. Además, el acceso a la memoria está en gran medida desvinculado de la estructura construida y aún depende de una recuperación semántica superficial, lo que impide que los agentes razonen lógicamente sobre dependencias de largo horizonte. En este trabajo, proponemos CompassMem, un marco de memoria centrado en eventos inspirado en la Teoría de la Segmentación de Eventos. CompassMem organiza la memoria como un Grafo de Eventos segmentando incrementalmente las experiencias en eventos y vinculándolos mediante relaciones lógicas explícitas. Este grafo sirve como un mapa lógico, permitiendo a los agentes realizar una navegación estructurada y orientada a objetivos sobre la memoria que va más allá de la recuperación superficial, reuniendo progresivamente recuerdos valiosos para apoyar el razonamiento de largo horizonte. Los experimentos en LoCoMo y NarrativeQA demuestran que CompassMem mejora consistentemente tanto el rendimiento de recuperación como el de razonamiento en múltiples modelos base.
English
Large language models (LLMs) are increasingly deployed as intelligent agents that reason, plan, and interact with their environments. To effectively scale to long-horizon scenarios, a key capability for such agents is a memory mechanism that can retain, organize, and retrieve past experiences to support downstream decision-making. However, most existing approaches organize and store memories in a flat manner and rely on simple similarity-based retrieval techniques. Even when structured memory is introduced, existing methods often struggle to explicitly capture the logical relationships among experiences or memory units. Moreover, memory access is largely detached from the constructed structure and still depends on shallow semantic retrieval, preventing agents from reasoning logically over long-horizon dependencies. In this work, we propose CompassMem, an event-centric memory framework inspired by Event Segmentation Theory. CompassMem organizes memory as an Event Graph by incrementally segmenting experiences into events and linking them through explicit logical relations. This graph serves as a logic map, enabling agents to perform structured and goal-directed navigation over memory beyond superficial retrieval, progressively gathering valuable memories to support long-horizon reasoning. Experiments on LoCoMo and NarrativeQA demonstrate that CompassMem consistently improves both retrieval and reasoning performance across multiple backbone models.
PDF32January 13, 2026