마음가짐의 연쇄: 적응적 인지 모드를 통한 추론
Chain of Mindset: Reasoning with Adaptive Cognitive Modes
February 10, 2026
저자: Tianyi Jiang, Arctanx An, Hengyi Feng, Naixin Zhai, Haodong Li, Xiaomin Yu, Jiahui Liu, Hanwen Du, Shuo Zhang, Zhi Yang, Jie Huang, Yuhua Li, Yongxin Ni, Huacan Wang, Ronghao Chen
cs.AI
초록
인간의 문제 해결은 단일한 사고 방식, 즉 인지 처리의 독특한 모드의 반복으로 이루어지지 않습니다. 특정 과제를 해결할 때 우리는 단일 사고 방식에 의존하지 않으며, 대신 단일 해결 과정 내에서 여러 사고 방식을 통합합니다. 그러나 기존의 LLM 추론 방법은 흔한 함정에 빠지는데, 바로 모든 단계에 동일한 고정된 사고 방식을 적용하여 동일한 문제를 해결하는 다른 단계가 근본적으로 다른 사고 방식을 필요로 한다는 점을 간과한다는 것입니다. 이러한 단일 사고 방식 가정은 모델이 다음 수준의 지능에 도달하는 것을 방해합니다. 이러한 한계를 해결하기 위해 우리는 단계별 적응형 사고 방식 조정을 가능하게 하는 학습이 필요 없는 에이전트 기반 프레임워크인 Chain of Mindset(CoM)을 제안합니다. CoM은 추론을 공간적, 수렴적, 확산적, 알고리즘적이라는 네 가지 기능적으로 이질적인 사고 방식으로 분해합니다. 메타 에이전트는 변화하는 추론 상태에 기반하여 최적의 사고 방식을 동적으로 선택하는 반면, 양방향 컨텍스트 게이트는 모듈 간 정보 흐름을 필터링하여 효과성과 효율성을 유지합니다. 수학, 코드 생성, 과학적 질의응답, 공간 추론에 이르는 여섯 가지 도전적인 벤치마크에서의 실험을 통해 CoM이 최첨단 성능을 달성함을 입증했습니다. Qwen3-VL-32B-Instruct와 Gemini-2.0-Flash에서 전체 정확도 기준으로 가장 강력한 기준 모델을 각각 4.96%, 4.72% 앞섰으며, 동시에 추론 효율성의 균형을 유지했습니다. 우리의 코드는 https://github.com/QuantaAlpha/chain-of-mindset 에 공개되어 있습니다.
English
Human problem-solving is never the repetition of a single mindset, by which we mean a distinct mode of cognitive processing. When tackling a specific task, we do not rely on a single mindset; instead, we integrate multiple mindsets within the single solution process. However, existing LLM reasoning methods fall into a common trap: they apply the same fixed mindset across all steps, overlooking that different stages of solving the same problem require fundamentally different mindsets. This single-minded assumption prevents models from reaching the next level of intelligence. To address this limitation, we propose Chain of Mindset (CoM), a training-free agentic framework that enables step-level adaptive mindset orchestration. CoM decomposes reasoning into four functionally heterogeneous mindsets: Spatial, Convergent, Divergent, and Algorithmic. A Meta-Agent dynamically selects the optimal mindset based on the evolving reasoning state, while a bidirectional Context Gate filters cross-module information flow to maintain effectiveness and efficiency. Experiments across six challenging benchmarks spanning mathematics, code generation, scientific QA, and spatial reasoning demonstrate that CoM achieves state-of-the-art performance, outperforming the strongest baseline by 4.96\% and 4.72\% in overall accuracy on Qwen3-VL-32B-Instruct and Gemini-2.0-Flash, while balancing reasoning efficiency. Our code is publicly available at https://github.com/QuantaAlpha/chain-of-mindset{https://github.com/QuantaAlpha/chain-of-mindset}.