MiA-Signature: 長文脈理解のための大域的活性化の近似
MiA-Signature: Approximating Global Activation for Long-Context Understanding
May 7, 2026
著者: Yuqing Li, Jiangnan Li, Mo Yu, Zheng Lin, Weiping Wang, Jie Zhou
cs.AI
要旨
認知科学における研究の蓄積は、報告可能な意識的アクセスが分散記憶システム全体でのグローバル・イグニッション(大域的火付け)と関連する一方、そのような活性化は個人が活性化された内容全てに直接アクセスしたり列挙したりできないため、部分的にしかアクセス不能であることを示唆している。この緊張関係は、認知が下流処理への活性化の大域的影響を近似するコンパクトな表現に依存しているという可能性を示唆する。この着想に基づき、我々はクエリによって誘発される大域的活性化パターンの圧縮表現である「マインドスケープ活性化シグネチャ(MiA-Signature)」の概念を提案する。大規模言語モデル(LLM)システムでは、これは活性化されたコンテキスト空間をカバーする高レベル概念のサブモジュラ性に基づく選択により具体化され、作業記憶を用いた軽量な反復的更新によって任意に洗練される。得られたMiA-Signatureは、完全な活性化状態の効果を近似しつつ計算量的に扱いやすい条件付け信号として機能する。MiA-SignatureをRAG(検索拡張生成)システムとエージェントシステムの両方に統合することで、複数の長文脈理解タスクにおいて一貫した性能向上が得られる。
English
A growing body of work in cognitive science suggests that reportable conscious access is associated with global ignition over distributed memory systems, while such activation is only partially accessible as individuals cannot directly access or enumerate all activated contents. This tension suggests a plausible mechanism that cognition may rely on a compact representation that approximates the global influence of activation on downstream processing. Inspired by this idea, we introduce the concept of Mindscape Activation Signature (MiA-Signature), a compressed representation of the global activation pattern induced by a query. In LLM systems, this is instantiated via submodular-based selection of high-level concepts that cover the activated context space, optionally refined through lightweight iterative updates using working memory. The resulting MiA-Signature serves as a conditioning signal that approximates the effect of the full activation state while remaining computationally tractable. Integrating MiA-Signatures into both RAG and agentic systems yields consistent performance gains across multiple long-context understanding tasks.