ChatPaper.aiChatPaper

ComoRAG: Когнитивно-вдохновленная RAG с организованной памятью для состоятельного рассуждения в длинных нарративах

ComoRAG: A Cognitive-Inspired Memory-Organized RAG for Stateful Long Narrative Reasoning

August 14, 2025
Авторы: Juyuan Wang, Rongchen Zhao, Wei Wei, Yufeng Wang, Mo Yu, Jie Zhou, Jin Xu, Liyan Xu
cs.AI

Аннотация

Понимание длинных повествований и романов представляет собой сложную задачу, обусловленную их запутанными сюжетными линиями и сложными, часто развивающимися отношениями между персонажами и сущностями. Учитывая ограниченные способности крупных языковых моделей (LLM) к рассуждениям в рамках расширенного контекста и высокую вычислительную стоимость, подходы, основанные на извлечении информации, остаются ключевыми на практике. Однако традиционные методы RAG (Retrieval-Augmented Generation) могут оказаться недостаточными из-за их статичного, одношагового процесса извлечения, который часто упускает динамический характер захвата взаимосвязанных отношений в рамках длинного контекста. В данной работе мы предлагаем ComoRAG, основываясь на принципе, что повествовательное рассуждение — это не одноразовый процесс, а динамическое, развивающееся взаимодействие между приобретением новых доказательств и консолидацией прошлых знаний, аналогичное человеческому познанию при рассуждении с использованием сигналов, связанных с памятью в мозге. В частности, при столкновении с тупиком в рассуждениях ComoRAG проходит через итеративные циклы рассуждений, взаимодействуя с динамическим рабочим пространством памяти. В каждом цикле он генерирует зондирующие запросы для разработки новых исследовательских путей, а затем интегрирует извлеченные доказательства новых аспектов в глобальный пул памяти, тем самым способствуя формированию связного контекста для разрешения запроса. На четырех сложных бенчмарках для длинных повествовательных контекстов (200K+ токенов) ComoRAG превосходит сильные базовые методы RAG с последовательным относительным улучшением до 11% по сравнению с самым сильным базовым методом. Дополнительный анализ показывает, что ComoRAG особенно эффективен для сложных запросов, требующих глобального понимания, предлагая принципиально новый, когнитивно мотивированный парадигмальный подход к извлечению информации для понимания длинного контекста с целью поддержки состоятельного рассуждения. Наш код доступен публично по адресу: https://github.com/EternityJune25/ComoRAG.
English
Narrative comprehension on long stories and novels has been a challenging domain attributed to their intricate plotlines and entangled, often evolving relations among characters and entities. Given the LLM's diminished reasoning over extended context and high computational cost, retrieval-based approaches remain a pivotal role in practice. However, traditional RAG methods can fall short due to their stateless, single-step retrieval process, which often overlooks the dynamic nature of capturing interconnected relations within long-range context. In this work, we propose ComoRAG, holding the principle that narrative reasoning is not a one-shot process, but a dynamic, evolving interplay between new evidence acquisition and past knowledge consolidation, analogous to human cognition when reasoning with memory-related signals in the brain. Specifically, when encountering a reasoning impasse, ComoRAG undergoes iterative reasoning cycles while interacting with a dynamic memory workspace. In each cycle, it generates probing queries to devise new exploratory paths, then integrates the retrieved evidence of new aspects into a global memory pool, thereby supporting the emergence of a coherent context for the query resolution. Across four challenging long-context narrative benchmarks (200K+ tokens), ComoRAG outperforms strong RAG baselines with consistent relative gains up to 11% compared to the strongest baseline. Further analysis reveals that ComoRAG is particularly advantageous for complex queries requiring global comprehension, offering a principled, cognitively motivated paradigm for retrieval-based long context comprehension towards stateful reasoning. Our code is publicly released at https://github.com/EternityJune25/ComoRAG
PDF492August 19, 2025