ChatPaper.aiChatPaper

Erinnerung zählt mehr: Ereigniszentriertes Gedächtnis als Logikkarte für agentenbasiertes Suchen und Schließen

Memory Matters More: Event-Centric Memory as a Logic Map for Agent Searching and Reasoning

January 8, 2026
papers.authors: Yuyang Hu, Jiongnan Liu, Jiejun Tan, Yutao Zhu, Zhicheng Dou
cs.AI

papers.abstract

Große Sprachmodelle (LLMs) werden zunehmend als intelligente Agenten eingesetzt, die schlussfolgern, planen und mit ihrer Umgebung interagieren. Um effektiv auf Szenarien mit langem Zeithorizont zu skalieren, ist eine Schlüsselfähigkeit für solche Agenten ein Gedächtnismechanismus, der vergangene Erfahrungen speichern, organisieren und abrufen kann, um nachgelagerte Entscheidungsfindung zu unterstützen. Die meisten bestehenden Ansätze organisieren und speichern Erinnerungen jedoch auf flache Weise und stützen sich auf einfache, ähnlichkeitsbasierte Abruftechniken. Selbst wenn strukturiertes Gedächtnis eingeführt wird, haben bestehende Methoden oft Schwierigkeiten, die logischen Beziehungen zwischen Erfahrungen oder Gedächtniseinheiten explizit zu erfassen. Darüber hinaus ist der Gedächtniszugriff weitgehend von der aufgebauten Struktur entkoppelt und beruht immer noch auf flachem semantischem Abruf, was Agenten daran hindert, logisch über langfristige Abhängigkeiten zu schlussfolgern. In dieser Arbeit schlagen wir CompassMem vor, ein ereigniszentriertes Gedächtnisframework, das von der Event Segmentation Theory inspiriert ist. CompassMem organisiert das Gedächtnis als Ereignisgraph, indem es Erfahrungen inkrementell in Ereignisse segmentiert und diese durch explizite logische Relationen verknüpft. Dieser Graph dient als Logikkarte und ermöglicht es Agenten, strukturierte und zielgerichtete Navigation im Gedächtnis durchzuführen, die über oberflächlichen Abruf hinausgeht, um schrittweise wertvolle Erinnerungen zur Unterstützung langfristiger Schlussfolgerungen zu sammeln. Experimente auf LoCoMo und NarrativeQA zeigen, dass CompassMem die Abruf- und Reasoning-Leistung über mehrere Basismodelle hinweg konsistent verbessert.
English
Large language models (LLMs) are increasingly deployed as intelligent agents that reason, plan, and interact with their environments. To effectively scale to long-horizon scenarios, a key capability for such agents is a memory mechanism that can retain, organize, and retrieve past experiences to support downstream decision-making. However, most existing approaches organize and store memories in a flat manner and rely on simple similarity-based retrieval techniques. Even when structured memory is introduced, existing methods often struggle to explicitly capture the logical relationships among experiences or memory units. Moreover, memory access is largely detached from the constructed structure and still depends on shallow semantic retrieval, preventing agents from reasoning logically over long-horizon dependencies. In this work, we propose CompassMem, an event-centric memory framework inspired by Event Segmentation Theory. CompassMem organizes memory as an Event Graph by incrementally segmenting experiences into events and linking them through explicit logical relations. This graph serves as a logic map, enabling agents to perform structured and goal-directed navigation over memory beyond superficial retrieval, progressively gathering valuable memories to support long-horizon reasoning. Experiments on LoCoMo and NarrativeQA demonstrate that CompassMem consistently improves both retrieval and reasoning performance across multiple backbone models.
PDF32January 13, 2026