ChatPaper.aiChatPaper

Génération de texte augmentée par récupération consciente du paysage mental pour une meilleure compréhension des contextes longs

Mindscape-Aware Retrieval Augmented Generation for Improved Long Context Understanding

December 19, 2025
papers.authors: Yuqing Li, Jiangnan Li, Zheng Lin, Ziyan Zhou, Junjie Wu, Weiping Wang, Jie Zhou, Mo Yu
cs.AI

papers.abstract

Les humains comprennent les textes longs et complexes en s'appuyant sur une représentation sémantique holistique du contenu. Cette vision globale aide à organiser les connaissances antérieures, à interpréter les nouvelles informations et à intégrer les preuves dispersées dans un document, comme le révèle la capacité de conscience du paysage mental (Mindscape-Aware Capability) en psychologie. Les systèmes actuels de Génération Augmentée par Récupération (RAG) manquent d'un tel guidage et peinent donc avec les tâches à contexte long. Dans cet article, nous proposons MiA-RAG (Mindscape-Aware RAG), la première approche qui dote les systèmes RAG basés sur LLM d'une conscience explicite du contexte global. MiA-RAG construit un paysage mental via une synthèse hiérarchique et conditionne à la fois la récupération et la génération sur cette représentation sémantique globale. Cela permet au récupérateur de former des embeddings de requête enrichis et au générateur de raisonner sur les preuves récupérées dans un contexte global cohérent. Nous évaluons MiA-RAG sur divers benchmarks à contexte long et bilingues pour la compréhension fondée sur des preuves et la construction de sens globale. Il surpasse constamment les méthodes de référence, et une analyse plus poussée montre qu'il aligne les détails locaux avec une représentation globale cohérente, permettant une récupération et un raisonnement en contexte long plus proches de l'humain.
English
Humans understand long and complex texts by relying on a holistic semantic representation of the content. This global view helps organize prior knowledge, interpret new information, and integrate evidence dispersed across a document, as revealed by the Mindscape-Aware Capability of humans in psychology. Current Retrieval-Augmented Generation (RAG) systems lack such guidance and therefore struggle with long-context tasks. In this paper, we propose Mindscape-Aware RAG (MiA-RAG), the first approach that equips LLM-based RAG systems with explicit global context awareness. MiA-RAG builds a mindscape through hierarchical summarization and conditions both retrieval and generation on this global semantic representation. This enables the retriever to form enriched query embeddings and the generator to reason over retrieved evidence within a coherent global context. We evaluate MiA-RAG across diverse long-context and bilingual benchmarks for evidence-based understanding and global sense-making. It consistently surpasses baselines, and further analysis shows that it aligns local details with a coherent global representation, enabling more human-like long-context retrieval and reasoning.
PDF691December 30, 2025