ChatPaper.aiChatPaper

Осведомленное о ментальном ландшафте поисковое расширенное генерирование для улучшенного понимания длинных контекстов

Mindscape-Aware Retrieval Augmented Generation for Improved Long Context Understanding

December 19, 2025
Авторы: Yuqing Li, Jiangnan Li, Zheng Lin, Ziyan Zhou, Junjie Wu, Weiping Wang, Jie Zhou, Mo Yu
cs.AI

Аннотация

Люди понимают длинные и сложные тексты, опираясь на целостное семантическое представление содержания. Как показано в психологии концепцией ментальной репрезентации (Mindscape-Aware Capability), этот глобальный взгляд помогает организовать предшествующие знания, интерпретировать новую информацию и интегрировать доказательства, рассредоточенные по всему документу. Современные системы поисково-усиленного генерирования (Retrieval-Augmented Generation, RAG) лишены такого руководства и поэтому испытывают трудности с задачами, требующими учета длинного контекста. В данной статье мы предлагаем MiA-RAG (Mindscape-Aware RAG) — первый подход, который наделяет RAG-системы на основе больших языковых моделей явной осведомленностью о глобальном контексте. MiA-RAG строит ментальную репрезентацию с помощью иерархического суммаризации и основывает как поиск, так и генерацию на этом глобальном семантическом представлении. Это позволяет модулю поиска формировать обогащенные эмбеддинги запросов, а генератору — рассуждать над найденными доказательствами в рамках связного глобального контекста. Мы оцениваем MiA-RAG на различных бенчмарках для длинных контекстов и двуязычных задач, ориентированных на доказательное понимание и глобальное осмысление. Наш подход стабильно превосходит базовые методы, а дальнейший анализ показывает, что он согласует локальные детали с целостным глобальным представлением, обеспечивая более похожий на человеческий поиск и рассуждение в условиях длинного контекста.
English
Humans understand long and complex texts by relying on a holistic semantic representation of the content. This global view helps organize prior knowledge, interpret new information, and integrate evidence dispersed across a document, as revealed by the Mindscape-Aware Capability of humans in psychology. Current Retrieval-Augmented Generation (RAG) systems lack such guidance and therefore struggle with long-context tasks. In this paper, we propose Mindscape-Aware RAG (MiA-RAG), the first approach that equips LLM-based RAG systems with explicit global context awareness. MiA-RAG builds a mindscape through hierarchical summarization and conditions both retrieval and generation on this global semantic representation. This enables the retriever to form enriched query embeddings and the generator to reason over retrieved evidence within a coherent global context. We evaluate MiA-RAG across diverse long-context and bilingual benchmarks for evidence-based understanding and global sense-making. It consistently surpasses baselines, and further analysis shows that it aligns local details with a coherent global representation, enabling more human-like long-context retrieval and reasoning.
PDF691December 30, 2025