ChatPaper.aiChatPaper

Memória Importa Mais: Memória Centrada em Eventos como um Mapa Lógico para Busca e Raciocínio de Agentes

Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning

January 8, 2026
Autores: Yuyang Hu, Jiongnan Liu, Jiejun Tan, Yutao Zhu, Zhicheng Dou
cs.AI

Resumo

Os grandes modelos de linguagem (LLMs) estão cada vez mais sendo implantados como agentes inteligentes que raciocinam, planejam e interagem com seus ambientes. Para escalar efetivamente para cenários de longo horizonte, uma capacidade fundamental para tais agentes é um mecanismo de memória que possa reter, organizar e recuperar experiências passadas para apoiar a tomada de decisão subsequente. No entanto, a maioria das abordagens existentes organiza e armazena memórias de forma plana e depende de técnicas simples de recuperação baseadas em similaridade. Mesmo quando a memória estruturada é introduzida, os métodos existentes frequentemente lutam para capturar explicitamente as relações lógicas entre experiências ou unidades de memória. Além disso, o acesso à memória está amplamente dissociado da estrutura construída e ainda depende de uma recuperação semântica superficial, impedindo que os agentes raciocinem logicamente sobre dependências de longo horizonte. Neste trabalho, propomos o CompassMem, uma estrutura de memória centrada em eventos inspirada na Teoria da Segmentação de Eventos. O CompassMem organiza a memória como um Grafo de Eventos, segmentando incrementalmente as experiências em eventos e vinculando-os através de relações lógicas explícitas. Este grafo serve como um mapa lógico, permitindo que os agentes realizem uma navegação estruturada e orientada a objetivos sobre a memória, indo além da recuperação superficial, e reunindo progressivamente memórias valiosas para apoiar o raciocínio de longo horizonte. Experimentos no LoCoMo e no NarrativeQA demonstram que o CompassMem melhora consistentemente o desempenho tanto de recuperação quanto de raciocínio em vários modelos de base.
English
Large language models (LLMs) are increasingly deployed as intelligent agents that reason, plan, and interact with their environments. To effectively scale to long-horizon scenarios, a key capability for such agents is a memory mechanism that can retain, organize, and retrieve past experiences to support downstream decision-making. However, most existing approaches organize and store memories in a flat manner and rely on simple similarity-based retrieval techniques. Even when structured memory is introduced, existing methods often struggle to explicitly capture the logical relationships among experiences or memory units. Moreover, memory access is largely detached from the constructed structure and still depends on shallow semantic retrieval, preventing agents from reasoning logically over long-horizon dependencies. In this work, we propose CompassMem, an event-centric memory framework inspired by Event Segmentation Theory. CompassMem organizes memory as an Event Graph by incrementally segmenting experiences into events and linking them through explicit logical relations. This graph serves as a logic map, enabling agents to perform structured and goal-directed navigation over memory beyond superficial retrieval, progressively gathering valuable memories to support long-horizon reasoning. Experiments on LoCoMo and NarrativeQA demonstrate that CompassMem consistently improves both retrieval and reasoning performance across multiple backbone models.
PDF64February 7, 2026