ChatPaper.aiChatPaper

Mindscape-Bewust Ophalen Versterkte Generatie voor Verbeterd Begrip van Lange Contexten

Mindscape-Aware Retrieval Augmented Generation for Improved Long Context Understanding

December 19, 2025
Auteurs: Yuqing Li, Jiangnan Li, Zheng Lin, Ziyan Zhou, Junjie Wu, Weiping Wang, Jie Zhou, Mo Yu
cs.AI

Samenvatting

Mensen begrijpen lange en complexe teksten door te steunen op een holistische semantische representatie van de inhoud. Dit globaal perspectief helpt bij het organiseren van voorkennis, het interpreteren van nieuwe informatie en het integreren van bewijs dat verspreid is over een document, zoals onthuld wordt door de Mindscape-Aware Capability van mensen in de psychologie. Huidige Retrieval-Augmented Generation (RAG)-systemen missen een dergelijke leidraad en hebben daarom moeite met taken die een lange context vereisen. In dit artikel stellen we Mindscape-Aware RAG (MiA-RAG) voor, de eerste aanpak die op LLM gebaseerde RAG-systemen uitrust met expliciet bewustzijn van de globale context. MiA-RAG bouwt een 'mindscape' op door middel van hiërarchische samenvatting en conditioneert zowel de retrieval als de generatie op deze globale semantische representatie. Hierdoor kan de retriever verrijkte query-embeddingen vormen en kan de generator redeneren over opgehaald bewijs binnen een samenhangende globale context. We evalueren MiA-RAG op diverse benchmarks voor lange context en tweetalige taken, gericht op op bewijs gebaseerd begrip en globaal betekenisgeven. Het systeem overtreft consistent de baseline-methoden, en verdere analyse toont aan dat het lokale details afstemt op een coherente globale representatie, wat een meer mensachtige retrieval en redenering over lange context mogelijk maakt.
English
Humans understand long and complex texts by relying on a holistic semantic representation of the content. This global view helps organize prior knowledge, interpret new information, and integrate evidence dispersed across a document, as revealed by the Mindscape-Aware Capability of humans in psychology. Current Retrieval-Augmented Generation (RAG) systems lack such guidance and therefore struggle with long-context tasks. In this paper, we propose Mindscape-Aware RAG (MiA-RAG), the first approach that equips LLM-based RAG systems with explicit global context awareness. MiA-RAG builds a mindscape through hierarchical summarization and conditions both retrieval and generation on this global semantic representation. This enables the retriever to form enriched query embeddings and the generator to reason over retrieved evidence within a coherent global context. We evaluate MiA-RAG across diverse long-context and bilingual benchmarks for evidence-based understanding and global sense-making. It consistently surpasses baselines, and further analysis shows that it aligns local details with a coherent global representation, enabling more human-like long-context retrieval and reasoning.
PDF691December 30, 2025