Mindscape-bewusstes, abrufverstärktes Generieren für verbessertes Verständnis langer Kontexte
Mindscape-Aware Retrieval Augmented Generation for Improved Long Context Understanding
December 19, 2025
papers.authors: Yuqing Li, Jiangnan Li, Zheng Lin, Ziyan Zhou, Junjie Wu, Weiping Wang, Jie Zhou, Mo Yu
cs.AI
papers.abstract
Menschen verstehen lange und komplexe Texte, indem sie sich auf eine ganzheitliche semantische Repräsentation des Inhalts stützen. Diese globale Sichtweise hilft dabei, Vorwissen zu organisieren, neue Informationen zu interpretieren und über ein Dokument verstreute Beweise zu integrieren, wie durch die mindscape-bewusste Fähigkeit des Menschen in der Psychologie aufgezeigt wird. Aktuelle Retrieval-Augmented Generation (RAG)-Systeme entbehren einer solchen Führung und haben daher Schwierigkeiten mit Aufgaben, die langen Kontext erfordern. In diesem Artikel schlagen wir Mindscape-Aware RAG (MiA-RAG) vor, den ersten Ansatz, der LLM-basierten RAG-Systemen explizites globales Kontextbewusstsein verleiht. MiA-RAG erstellt ein Mindscape durch hierarchische Zusammenfassung und konditioniert sowohl Retrieval als auch Generierung auf diese globale semantische Repräsentation. Dies ermöglicht es dem Retriever, angereicherte Query-Embeddings zu bilden, und dem Generator, über abgerufene Evidenzen innerhalb eines kohärenten globalen Kontexts zu schlussfolgern. Wir evaluieren MiA-RAG auf verschiedenen Benchmarks für langen Kontext und bilinguale Szenarien für evidenzbasiertes Verständnis und globales Sinnverstehen. Es übertrifft durchgängig die Baseline-Systeme, und weitere Analysen zeigen, dass es lokale Details mit einer kohärenten globalen Repräsentation in Einklang bringt und damit eine menschenähnlichere Retrieval- und Reasoning-Leistung bei langem Kontext ermöglicht.
English
Humans understand long and complex texts by relying on a holistic semantic representation of the content. This global view helps organize prior knowledge, interpret new information, and integrate evidence dispersed across a document, as revealed by the Mindscape-Aware Capability of humans in psychology. Current Retrieval-Augmented Generation (RAG) systems lack such guidance and therefore struggle with long-context tasks. In this paper, we propose Mindscape-Aware RAG (MiA-RAG), the first approach that equips LLM-based RAG systems with explicit global context awareness. MiA-RAG builds a mindscape through hierarchical summarization and conditions both retrieval and generation on this global semantic representation. This enables the retriever to form enriched query embeddings and the generator to reason over retrieved evidence within a coherent global context. We evaluate MiA-RAG across diverse long-context and bilingual benchmarks for evidence-based understanding and global sense-making. It consistently surpasses baselines, and further analysis shows that it aligns local details with a coherent global representation, enabling more human-like long-context retrieval and reasoning.