ChatPaper.aiChatPaper

La mémoire compte davantage : la mémoire centrée sur l'événement comme carte logique pour la recherche et le raisonnement des agents

Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning

January 8, 2026
papers.authors: Yuyang Hu, Jiongnan Liu, Jiejun Tan, Yutao Zhu, Zhicheng Dou
cs.AI

papers.abstract

Les grands modèles de langage (LLM) sont de plus en plus déployés en tant qu'agents intelligents capables de raisonner, planifier et interagir avec leur environnement. Pour s'adapter efficacement à des scénarios à long terme, une capacité essentielle pour ces agents est un mécanisme de mémoire pouvant conserver, organiser et récupérer des expériences passées afin de soutenir la prise de décision ultérieure. Cependant, la plupart des approches existantes organisent et stockent les mémoires de manière plate et reposent sur des techniques de récupération simples basées sur la similarité. Même lorsqu'une mémoire structurée est introduite, les méthodes existantes peinent souvent à capturer explicitement les relations logiques entre les expériences ou les unités de mémoire. De plus, l'accès à la mémoire est largement dissocié de la structure construite et dépend toujours d'une récupération sémantique superficielle, empêchant les agents de raisonner logiquement sur des dépendances à long terme. Dans ce travail, nous proposons CompassMem, un cadre de mémoire centré sur les événements inspiré par la théorie de la segmentation des événements. CompassMem organise la mémoire sous forme de graphe d'événements en segmentant progressivement les expériences en événements et en les reliant par des relations logiques explicites. Ce graphe sert de carte logique, permettant aux agents d'effectuer une navigation structurée et orientée vers un but dans la mémoire au-delà d'une récupération superficielle, rassemblant progressivement des mémoires précieuses pour soutenir le raisonnement à long terme. Les expériences sur LoCoMo et NarrativeQA démontrent que CompassMem améliore constamment les performances de récupération et de raisonnement sur plusieurs modèles de base.
English
Large language models (LLMs) are increasingly deployed as intelligent agents that reason, plan, and interact with their environments. To effectively scale to long-horizon scenarios, a key capability for such agents is a memory mechanism that can retain, organize, and retrieve past experiences to support downstream decision-making. However, most existing approaches organize and store memories in a flat manner and rely on simple similarity-based retrieval techniques. Even when structured memory is introduced, existing methods often struggle to explicitly capture the logical relationships among experiences or memory units. Moreover, memory access is largely detached from the constructed structure and still depends on shallow semantic retrieval, preventing agents from reasoning logically over long-horizon dependencies. In this work, we propose CompassMem, an event-centric memory framework inspired by Event Segmentation Theory. CompassMem organizes memory as an Event Graph by incrementally segmenting experiences into events and linking them through explicit logical relations. This graph serves as a logic map, enabling agents to perform structured and goal-directed navigation over memory beyond superficial retrieval, progressively gathering valuable memories to support long-horizon reasoning. Experiments on LoCoMo and NarrativeQA demonstrate that CompassMem consistently improves both retrieval and reasoning performance across multiple backbone models.
PDF32January 13, 2026