ChatPaper.aiChatPaper

ComoRAG: Ein kognitiv-inspiriertes, speicherorganisiertes RAG für zustandsbehaftetes Langzeit-Narrativ-Reasoning

ComoRAG: A Cognitive-Inspired Memory-Organized RAG for Stateful Long Narrative Reasoning

August 14, 2025
papers.authors: Juyuan Wang, Rongchen Zhao, Wei Wei, Yufeng Wang, Mo Yu, Jie Zhou, Jin Xu, Liyan Xu
cs.AI

papers.abstract

Das Verständnis von langen Geschichten und Romanen stellt aufgrund ihrer komplexen Handlungsstränge und verflochtenen, oft sich entwickelnden Beziehungen zwischen Charakteren und Entitäten eine anspruchsvolle Domäne dar. Angesichts der eingeschränkten Fähigkeit von Large Language Models (LLMs), über längere Kontexte hinweg zu schlussfolgern, sowie der hohen Rechenkosten spielen retrieverbasierte Ansätze in der Praxis weiterhin eine zentrale Rolle. Traditionelle RAG-Methoden (Retrieval-Augmented Generation) können jedoch aufgrund ihres zustandslosen, einstufigen Retrieval-Prozesses, der oft die dynamische Natur der Erfassung vernetzter Beziehungen innerhalb langreichweitiger Kontexte übersieht, an ihre Grenzen stoßen. In dieser Arbeit schlagen wir ComoRAG vor, das auf dem Prinzip basiert, dass narratives Schließen kein einmaliger Prozess ist, sondern ein dynamisches, sich entwickelndes Zusammenspiel zwischen der Erfassung neuer Beweise und der Konsolidierung vergangenen Wissens, analog zur menschlichen Kognition beim Schließen mit gedächtnisbezogenen Signalen im Gehirn. Konkret durchläuft ComoRAG, wenn es auf ein Schließungsproblem stößt, iterative Schließungszyklen, während es mit einem dynamischen Gedächtnisarbeitsbereich interagiert. In jedem Zyklus generiert es Sondierungsanfragen, um neue Erkundungspfade zu entwickeln, und integriert dann die gefundenen Beweise neuer Aspekte in einen globalen Gedächtnispool, wodurch die Entstehung eines kohärenten Kontexts für die Anfrageauflösung unterstützt wird. Über vier anspruchsvolle Benchmarks für langreichweitige narrative Kontexte (200K+ Tokens) hinweg übertrifft ComoRAG starke RAG-Baselines mit konsistenten relativen Gewinnen von bis zu 11 % im Vergleich zur stärksten Baseline. Weitere Analysen zeigen, dass ComoRAG insbesondere bei komplexen Anfragen, die ein globales Verständnis erfordern, vorteilhaft ist und ein prinzipielles, kognitiv motiviertes Paradigma für retrieverbasiertes Langkontextverständnis hin zu zustandsbehaftetem Schließen bietet. Unser Code ist öffentlich unter https://github.com/EternityJune25/ComoRAG verfügbar.
English
Narrative comprehension on long stories and novels has been a challenging domain attributed to their intricate plotlines and entangled, often evolving relations among characters and entities. Given the LLM's diminished reasoning over extended context and high computational cost, retrieval-based approaches remain a pivotal role in practice. However, traditional RAG methods can fall short due to their stateless, single-step retrieval process, which often overlooks the dynamic nature of capturing interconnected relations within long-range context. In this work, we propose ComoRAG, holding the principle that narrative reasoning is not a one-shot process, but a dynamic, evolving interplay between new evidence acquisition and past knowledge consolidation, analogous to human cognition when reasoning with memory-related signals in the brain. Specifically, when encountering a reasoning impasse, ComoRAG undergoes iterative reasoning cycles while interacting with a dynamic memory workspace. In each cycle, it generates probing queries to devise new exploratory paths, then integrates the retrieved evidence of new aspects into a global memory pool, thereby supporting the emergence of a coherent context for the query resolution. Across four challenging long-context narrative benchmarks (200K+ tokens), ComoRAG outperforms strong RAG baselines with consistent relative gains up to 11% compared to the strongest baseline. Further analysis reveals that ComoRAG is particularly advantageous for complex queries requiring global comprehension, offering a principled, cognitively motivated paradigm for retrieval-based long context comprehension towards stateful reasoning. Our code is publicly released at https://github.com/EternityJune25/ComoRAG
PDF492August 19, 2025