ChatPaper.aiChatPaper

ComoRAG : Un RAG à mémoire organisée inspiré de la cognition pour le raisonnement narratif long avec état

ComoRAG: A Cognitive-Inspired Memory-Organized RAG for Stateful Long Narrative Reasoning

August 14, 2025
papers.authors: Juyuan Wang, Rongchen Zhao, Wei Wei, Yufeng Wang, Mo Yu, Jie Zhou, Jin Xu, Liyan Xu
cs.AI

papers.abstract

La compréhension narrative des histoires longues et des romans constitue un domaine complexe en raison de leurs intrigues élaborées et des relations entrelacées et souvent évolutives entre les personnages et les entités. Étant donné la capacité réduite des modèles de langage de grande taille (LLM) à raisonner sur des contextes étendus et leur coût computationnel élevé, les approches basées sur la recherche d'information (retrieval) jouent un rôle essentiel en pratique. Cependant, les méthodes traditionnelles de RAG (Retrieval-Augmented Generation) peuvent s'avérer insuffisantes en raison de leur processus de recherche statique et en une seule étape, qui néglige souvent la nature dynamique de la capture des relations interconnectées dans un contexte à long terme. Dans ce travail, nous proposons ComoRAG, en partant du principe que le raisonnement narratif n'est pas un processus ponctuel, mais une interaction dynamique et évolutive entre l'acquisition de nouvelles preuves et la consolidation des connaissances passées, similaire à la cognition humaine lors du raisonnement avec des signaux liés à la mémoire dans le cerveau. Plus précisément, lorsqu'il rencontre une impasse de raisonnement, ComoRAG engage des cycles de raisonnement itératifs tout en interagissant avec un espace de mémoire dynamique. À chaque cycle, il génère des requêtes exploratoires pour tracer de nouvelles pistes, puis intègre les preuves récupérées de nouveaux aspects dans un pool de mémoire global, favorisant ainsi l'émergence d'un contexte cohérent pour la résolution de la requête. Sur quatre benchmarks narratifs exigeants avec des contextes longs (200K+ tokens), ComoRAG surpasse les bases de référence RAG avec des gains relatifs constants allant jusqu'à 11 % par rapport à la meilleure base de référence. Une analyse approfondie révèle que ComoRAG est particulièrement avantageux pour les requêtes complexes nécessitant une compréhension globale, offrant un paradigme motivé cognitivement et fondé sur des principes pour la compréhension de contextes longs basée sur la recherche, en vue d'un raisonnement étatique. Notre code est disponible publiquement à l'adresse suivante : https://github.com/EternityJune25/ComoRAG.
English
Narrative comprehension on long stories and novels has been a challenging domain attributed to their intricate plotlines and entangled, often evolving relations among characters and entities. Given the LLM's diminished reasoning over extended context and high computational cost, retrieval-based approaches remain a pivotal role in practice. However, traditional RAG methods can fall short due to their stateless, single-step retrieval process, which often overlooks the dynamic nature of capturing interconnected relations within long-range context. In this work, we propose ComoRAG, holding the principle that narrative reasoning is not a one-shot process, but a dynamic, evolving interplay between new evidence acquisition and past knowledge consolidation, analogous to human cognition when reasoning with memory-related signals in the brain. Specifically, when encountering a reasoning impasse, ComoRAG undergoes iterative reasoning cycles while interacting with a dynamic memory workspace. In each cycle, it generates probing queries to devise new exploratory paths, then integrates the retrieved evidence of new aspects into a global memory pool, thereby supporting the emergence of a coherent context for the query resolution. Across four challenging long-context narrative benchmarks (200K+ tokens), ComoRAG outperforms strong RAG baselines with consistent relative gains up to 11% compared to the strongest baseline. Further analysis reveals that ComoRAG is particularly advantageous for complex queries requiring global comprehension, offering a principled, cognitively motivated paradigm for retrieval-based long context comprehension towards stateful reasoning. Our code is publicly released at https://github.com/EternityJune25/ComoRAG
PDF492August 19, 2025