ChatPaper.aiChatPaper

マインドセット連鎖:適応的認知モードによる推論

Chain of Mindset: Reasoning with Adaptive Cognitive Modes

February 10, 2026
著者: Tianyi Jiang, Arctanx An, Hengyi Feng, Naixin Zhai, Haodong Li, Xiaomin Yu, Jiahui Liu, Hanwen Du, Shuo Zhang, Zhi Yang, Jie Huang, Yuhua Li, Yongxin Ni, Huacan Wang, Ronghao Chen
cs.AI

要旨

人間の問題解決は、単一のマインドセット(すなわち、異なる認知処理モード)の繰り返しでは決してない。特定の課題に取り組む際、我々は単一のマインドセットに依存するのではなく、単一の解決プロセス内で複数のマインドセットを統合する。しかし、既存の大規模言語モデル(LLM)の推論手法は共通の落とし穴に陥っている。すなわち、全てのステップで同じ固定されたマインドセットを適用し、同一問題の解決段階によって根本的に異なるマインドセットが必要となることを見落としているのである。この単一思考の前提が、モデルが次の知性レベルに到達することを妨げている。この制限を解決するため、我々は訓練不要なエージェントフレームワークであるChain of Mindset(CoM)を提案する。CoMはステップ単位での適応的マインドセット編成を実現し、推論を機能的に異質な四つのマインドセット(空間的、収束的、発散的、アルゴリズム的)に分解する。メタエージェントが推論状態の変化に基づいて最適なマインドセットを動的に選択し、双方向コンテキストゲートがモジュール間の情報フローを濾過して効率性と有効性を維持する。数学、コード生成、科学QA、空間推論にわたる6つの難易度の高いベンチマークによる実験では、CoMが最先端の性能を達成し、Qwen3-VL-32B-InstructとGemini-2.0-Flashにおいて全体精度で最強ベースラインをそれぞれ4.96%、4.72%上回りながら、推論効率のバランスも保つことが実証された。コードはhttps://github.com/QuantaAlpha/chain-of-mindset で公開されている。
English
Human problem-solving is never the repetition of a single mindset, by which we mean a distinct mode of cognitive processing. When tackling a specific task, we do not rely on a single mindset; instead, we integrate multiple mindsets within the single solution process. However, existing LLM reasoning methods fall into a common trap: they apply the same fixed mindset across all steps, overlooking that different stages of solving the same problem require fundamentally different mindsets. This single-minded assumption prevents models from reaching the next level of intelligence. To address this limitation, we propose Chain of Mindset (CoM), a training-free agentic framework that enables step-level adaptive mindset orchestration. CoM decomposes reasoning into four functionally heterogeneous mindsets: Spatial, Convergent, Divergent, and Algorithmic. A Meta-Agent dynamically selects the optimal mindset based on the evolving reasoning state, while a bidirectional Context Gate filters cross-module information flow to maintain effectiveness and efficiency. Experiments across six challenging benchmarks spanning mathematics, code generation, scientific QA, and spatial reasoning demonstrate that CoM achieves state-of-the-art performance, outperforming the strongest baseline by 4.96\% and 4.72\% in overall accuracy on Qwen3-VL-32B-Instruct and Gemini-2.0-Flash, while balancing reasoning efficiency. Our code is publicly available at https://github.com/QuantaAlpha/chain-of-mindset{https://github.com/QuantaAlpha/chain-of-mindset}.
PDF621February 12, 2026