ChatPaper.aiChatPaper

ComoRAG: Un RAG Organizado por Memoria Inspirado en la Cognición para el Razonamiento Narrativo Largo con Estado

ComoRAG: A Cognitive-Inspired Memory-Organized RAG for Stateful Long Narrative Reasoning

August 14, 2025
Autores: Juyuan Wang, Rongchen Zhao, Wei Wei, Yufeng Wang, Mo Yu, Jie Zhou, Jin Xu, Liyan Xu
cs.AI

Resumen

La comprensión narrativa de historias largas y novelas ha sido un dominio desafiante debido a sus tramas intrincadas y a las relaciones entrelazadas y en evolución entre personajes y entidades. Dada la capacidad reducida de los modelos de lenguaje grandes (LLM) para razonar sobre contextos extensos y su alto costo computacional, los enfoques basados en recuperación siguen desempeñando un papel fundamental en la práctica. Sin embargo, los métodos tradicionales de RAG (Retrieval-Augmented Generation) pueden quedarse cortos debido a su proceso de recuperación estático y de un solo paso, que a menudo pasa por alto la naturaleza dinámica de capturar relaciones interconectadas dentro de contextos de largo alcance. En este trabajo, proponemos ComoRAG, basado en el principio de que el razonamiento narrativo no es un proceso de una sola vez, sino una interacción dinámica y en evolución entre la adquisición de nueva evidencia y la consolidación de conocimientos previos, análoga a la cognición humana cuando se razona con señales relacionadas con la memoria en el cerebro. Específicamente, al encontrar un punto de bloqueo en el razonamiento, ComoRAG realiza ciclos iterativos de razonamiento mientras interactúa con un espacio de memoria dinámico. En cada ciclo, genera consultas de sondeo para trazar nuevos caminos exploratorios, luego integra la evidencia recuperada de nuevos aspectos en un pool de memoria global, apoyando así la emergencia de un contexto coherente para la resolución de la consulta. En cuatro benchmarks desafiantes de narrativa de contexto largo (más de 200K tokens), ComoRAG supera a los baselines fuertes de RAG con ganancias relativas consistentes de hasta un 11% en comparación con el baseline más robusto. Un análisis adicional revela que ComoRAG es particularmente ventajoso para consultas complejas que requieren comprensión global, ofreciendo un paradigma fundamentado y cognitivamente motivado para la comprensión de contextos largos basada en recuperación hacia un razonamiento con estado. Nuestro código está disponible públicamente en https://github.com/EternityJune25/ComoRAG.
English
Narrative comprehension on long stories and novels has been a challenging domain attributed to their intricate plotlines and entangled, often evolving relations among characters and entities. Given the LLM's diminished reasoning over extended context and high computational cost, retrieval-based approaches remain a pivotal role in practice. However, traditional RAG methods can fall short due to their stateless, single-step retrieval process, which often overlooks the dynamic nature of capturing interconnected relations within long-range context. In this work, we propose ComoRAG, holding the principle that narrative reasoning is not a one-shot process, but a dynamic, evolving interplay between new evidence acquisition and past knowledge consolidation, analogous to human cognition when reasoning with memory-related signals in the brain. Specifically, when encountering a reasoning impasse, ComoRAG undergoes iterative reasoning cycles while interacting with a dynamic memory workspace. In each cycle, it generates probing queries to devise new exploratory paths, then integrates the retrieved evidence of new aspects into a global memory pool, thereby supporting the emergence of a coherent context for the query resolution. Across four challenging long-context narrative benchmarks (200K+ tokens), ComoRAG outperforms strong RAG baselines with consistent relative gains up to 11% compared to the strongest baseline. Further analysis reveals that ComoRAG is particularly advantageous for complex queries requiring global comprehension, offering a principled, cognitively motivated paradigm for retrieval-based long context comprehension towards stateful reasoning. Our code is publicly released at https://github.com/EternityJune25/ComoRAG
PDF492August 19, 2025