ComoRAG : Un RAG à mémoire organisée inspiré de la cognition pour le raisonnement narratif long avec état
ComoRAG: A Cognitive-Inspired Memory-Organized RAG for Stateful Long Narrative Reasoning
August 14, 2025
papers.authors: Juyuan Wang, Rongchen Zhao, Wei Wei, Yufeng Wang, Mo Yu, Jie Zhou, Jin Xu, Liyan Xu
cs.AI
papers.abstract
La compréhension narrative des histoires longues et des romans constitue un domaine complexe en raison de leurs intrigues élaborées et des relations entrelacées et souvent évolutives entre les personnages et les entités. Étant donné la capacité réduite des modèles de langage de grande taille (LLM) à raisonner sur des contextes étendus et leur coût computationnel élevé, les approches basées sur la recherche d'information (retrieval) jouent un rôle essentiel en pratique. Cependant, les méthodes traditionnelles de RAG (Retrieval-Augmented Generation) peuvent s'avérer insuffisantes en raison de leur processus de recherche statique et en une seule étape, qui néglige souvent la nature dynamique de la capture des relations interconnectées dans un contexte à long terme. Dans ce travail, nous proposons ComoRAG, en partant du principe que le raisonnement narratif n'est pas un processus ponctuel, mais une interaction dynamique et évolutive entre l'acquisition de nouvelles preuves et la consolidation des connaissances passées, similaire à la cognition humaine lors du raisonnement avec des signaux liés à la mémoire dans le cerveau. Plus précisément, lorsqu'il rencontre une impasse de raisonnement, ComoRAG engage des cycles de raisonnement itératifs tout en interagissant avec un espace de mémoire dynamique. À chaque cycle, il génère des requêtes exploratoires pour tracer de nouvelles pistes, puis intègre les preuves récupérées de nouveaux aspects dans un pool de mémoire global, favorisant ainsi l'émergence d'un contexte cohérent pour la résolution de la requête. Sur quatre benchmarks narratifs exigeants avec des contextes longs (200K+ tokens), ComoRAG surpasse les bases de référence RAG avec des gains relatifs constants allant jusqu'à 11 % par rapport à la meilleure base de référence. Une analyse approfondie révèle que ComoRAG est particulièrement avantageux pour les requêtes complexes nécessitant une compréhension globale, offrant un paradigme motivé cognitivement et fondé sur des principes pour la compréhension de contextes longs basée sur la recherche, en vue d'un raisonnement étatique. Notre code est disponible publiquement à l'adresse suivante : https://github.com/EternityJune25/ComoRAG.
English
Narrative comprehension on long stories and novels has been a challenging
domain attributed to their intricate plotlines and entangled, often evolving
relations among characters and entities. Given the LLM's diminished reasoning
over extended context and high computational cost, retrieval-based approaches
remain a pivotal role in practice. However, traditional RAG methods can fall
short due to their stateless, single-step retrieval process, which often
overlooks the dynamic nature of capturing interconnected relations within
long-range context. In this work, we propose ComoRAG, holding the principle
that narrative reasoning is not a one-shot process, but a dynamic, evolving
interplay between new evidence acquisition and past knowledge consolidation,
analogous to human cognition when reasoning with memory-related signals in the
brain. Specifically, when encountering a reasoning impasse, ComoRAG undergoes
iterative reasoning cycles while interacting with a dynamic memory workspace.
In each cycle, it generates probing queries to devise new exploratory paths,
then integrates the retrieved evidence of new aspects into a global memory
pool, thereby supporting the emergence of a coherent context for the query
resolution. Across four challenging long-context narrative benchmarks (200K+
tokens), ComoRAG outperforms strong RAG baselines with consistent relative
gains up to 11% compared to the strongest baseline. Further analysis reveals
that ComoRAG is particularly advantageous for complex queries requiring global
comprehension, offering a principled, cognitively motivated paradigm for
retrieval-based long context comprehension towards stateful reasoning. Our code
is publicly released at https://github.com/EternityJune25/ComoRAG