Generación Aumentada por Recuperación Consciente del Paisaje Mental para una Mejor Comprensión de Contextos Largos
Mindscape-Aware Retrieval Augmented Generation for Improved Long Context Understanding
December 19, 2025
Autores: Yuqing Li, Jiangnan Li, Zheng Lin, Ziyan Zhou, Junjie Wu, Weiping Wang, Jie Zhou, Mo Yu
cs.AI
Resumen
Los seres humanos comprenden textos largos y complejos mediante una representación semántica holística del contenido. Esta visión global ayuda a organizar el conocimiento previo, interpretar nueva información e integrar evidencia dispersa a lo largo de un documento, como revela la Capacidad de Conciencia del Paisaje Mental en psicología. Los sistemas actuales de Generación Aumentada por Recuperación (RAG) carecen de dicha guía y, por lo tanto, tienen dificultades con tareas de contexto extenso. En este artículo, proponemos RAG con Conciencia del Paisaje Mental (MiA-RAG), el primer enfoque que dota a los sistemas RAG basados en LLM de una conciencia explícita del contexto global. MiA-RAG construye un paisaje mental mediante resumen jerárquico y condiciona tanto la recuperación como la generación a esta representación semántica global. Esto permite que el recuperador forme incrustaciones de consulta enriquecidas y que el generador razone sobre la evidencia recuperada dentro de un contexto global coherente. Evaluamos MiA-RAG en diversos benchmarks de contexto extenso y bilingües para la comprensión basada en evidencia y la construcción de sentido global. Supera consistentemente a los baselines, y un análisis adicional muestra que alinea los detalles locales con una representación global coherente, permitiendo una recuperación y razonamiento de contexto extenso más similares a los humanos.
English
Humans understand long and complex texts by relying on a holistic semantic representation of the content. This global view helps organize prior knowledge, interpret new information, and integrate evidence dispersed across a document, as revealed by the Mindscape-Aware Capability of humans in psychology. Current Retrieval-Augmented Generation (RAG) systems lack such guidance and therefore struggle with long-context tasks. In this paper, we propose Mindscape-Aware RAG (MiA-RAG), the first approach that equips LLM-based RAG systems with explicit global context awareness. MiA-RAG builds a mindscape through hierarchical summarization and conditions both retrieval and generation on this global semantic representation. This enables the retriever to form enriched query embeddings and the generator to reason over retrieved evidence within a coherent global context. We evaluate MiA-RAG across diverse long-context and bilingual benchmarks for evidence-based understanding and global sense-making. It consistently surpasses baselines, and further analysis shows that it aligns local details with a coherent global representation, enabling more human-like long-context retrieval and reasoning.