ChatPaper.aiChatPaper

ComoRAG: Een Cognitief-Geïnspireerde Geheugen-Georganiseerde RAG voor Toestandsgebonden Lange Narratieve Redenering

ComoRAG: A Cognitive-Inspired Memory-Organized RAG for Stateful Long Narrative Reasoning

August 14, 2025
Auteurs: Juyuan Wang, Rongchen Zhao, Wei Wei, Yufeng Wang, Mo Yu, Jie Zhou, Jin Xu, Liyan Xu
cs.AI

Samenvatting

Het begrijpen van lange verhalen en romans is een uitdagend domein vanwege hun ingewikkelde plotlijnen en verstrengelde, vaak evoluerende relaties tussen personages en entiteiten. Gezien de beperkte redeneercapaciteit van grote taalmodelen (LLM's) over uitgebreide contexten en de hoge computationele kosten, blijven retrieval-gebaseerde benaderingen in de praktijk van cruciaal belang. Traditionele RAG-methoden (Retrieval-Augmented Generation) kunnen echter tekortschieten vanwege hun stateless, eenstaps retrievalproces, dat vaak de dynamische aard van het vastleggen van onderling verbonden relaties binnen een lange context over het hoofd ziet. In dit werk stellen we ComoRAG voor, gebaseerd op het principe dat narratief redeneren geen eenmalig proces is, maar een dynamische, evoluerende wisselwerking tussen het verwerven van nieuw bewijs en het consolideren van eerdere kennis, vergelijkbaar met menselijke cognitie bij het redeneren met geheugen gerelateerde signalen in de hersenen. Specifiek ondergaat ComoRAG, wanneer het een redeneerimpasse tegenkomt, iteratieve redeneercycli terwijl het interageert met een dynamische geheugenwerkruimte. In elke cyclus genereert het verkennende vragen om nieuwe onderzoekspaden te bedenken, en integreert het de opgehaalde bewijzen van nieuwe aspecten in een globaal geheugenpool, waardoor een coherente context voor de vraagoplossing ontstaat. Over vier uitdagende lange-context narratieve benchmarks (200K+ tokens) presteert ComoRAG beter dan sterke RAG-baselines met consistente relatieve winsten tot 11% vergeleken met de sterkste baseline. Verdere analyse toont aan dat ComoRAG vooral voordelig is voor complexe vragen die een globaal begrip vereisen, en biedt een principieel, cognitief gemotiveerd paradigma voor retrieval-gebaseerd lang contextbegrip richting stateful redeneren. Onze code is openbaar vrijgegeven op https://github.com/EternityJune25/ComoRAG.
English
Narrative comprehension on long stories and novels has been a challenging domain attributed to their intricate plotlines and entangled, often evolving relations among characters and entities. Given the LLM's diminished reasoning over extended context and high computational cost, retrieval-based approaches remain a pivotal role in practice. However, traditional RAG methods can fall short due to their stateless, single-step retrieval process, which often overlooks the dynamic nature of capturing interconnected relations within long-range context. In this work, we propose ComoRAG, holding the principle that narrative reasoning is not a one-shot process, but a dynamic, evolving interplay between new evidence acquisition and past knowledge consolidation, analogous to human cognition when reasoning with memory-related signals in the brain. Specifically, when encountering a reasoning impasse, ComoRAG undergoes iterative reasoning cycles while interacting with a dynamic memory workspace. In each cycle, it generates probing queries to devise new exploratory paths, then integrates the retrieved evidence of new aspects into a global memory pool, thereby supporting the emergence of a coherent context for the query resolution. Across four challenging long-context narrative benchmarks (200K+ tokens), ComoRAG outperforms strong RAG baselines with consistent relative gains up to 11% compared to the strongest baseline. Further analysis reveals that ComoRAG is particularly advantageous for complex queries requiring global comprehension, offering a principled, cognitively motivated paradigm for retrieval-based long context comprehension towards stateful reasoning. Our code is publicly released at https://github.com/EternityJune25/ComoRAG
PDF732August 19, 2025