ChatPaper.aiChatPaper

Цепочка мышления: Рассуждение с адаптивными когнитивными режимами

Chain of Mindset: Reasoning with Adaptive Cognitive Modes

February 10, 2026
Авторы: Tianyi Jiang, Arctanx An, Hengyi Feng, Naixin Zhai, Haodong Li, Xiaomin Yu, Jiahui Liu, Hanwen Du, Shuo Zhang, Zhi Yang, Jie Huang, Yuhua Li, Yongxin Ni, Huacan Wang, Ronghao Chen
cs.AI

Аннотация

Человеческое решение проблем никогда не сводится к повторению единого типа мышления (mindset), под которым мы понимаем особый режим когнитивной обработки. При выполнении конкретной задачи мы не полагаемся на единственный тип мышления; вместо этого мы интегрируем несколько типов мышления в единый процесс решения. Однако существующие методы рассуждения в больших языковых моделях (LLM) попадают в распространённую ловушку: они применяют один и тот же фиксированный тип мышления на всех шагах, упуская из виду, что разные этапы решения одной и той же задачи требуют принципиально различных типов мышления. Это предположение об унифицированном подходе мешает моделям достичь следующего уровня интеллекта. Чтобы устранить этот недостаток, мы предлагаем Цепочку Типов Мышления (Chain of Mindset, CoM) — не требующий обучения агентский фреймворк, который обеспечивает адаптивную оркестрацию типов мышления на уровне шага. CoM декомпозирует рассуждение на четыре функционально разнородных типа мышления: Пространственное, Конвергентное, Дивергентное и Алгоритмическое. Мета-Агент динамически выбирает оптимальный тип мышления на основе изменяющегося состояния процесса рассуждения, в то время как двунаправленные Контекстные Ворота фильтруют информационные потоки между модулями для поддержания эффективности и производительности. Эксперименты на шести сложных тестовых наборах, охватывающих математику, генерацию кода, научные вопросы-ответы и пространственные рассуждения, демонстрируют, что CoM достигает наилучших результатов, превосходя сильнейший базовый метод на 4,96% и 4,72% по общей точности на моделях Qwen3-VL-32B-Instruct и Gemini-2.0-Flash соответственно, при этом сохраняя баланс эффективности рассуждений. Наш код общедоступен по адресу https://github.com/QuantaAlpha/chain-of-mindset.
English
Human problem-solving is never the repetition of a single mindset, by which we mean a distinct mode of cognitive processing. When tackling a specific task, we do not rely on a single mindset; instead, we integrate multiple mindsets within the single solution process. However, existing LLM reasoning methods fall into a common trap: they apply the same fixed mindset across all steps, overlooking that different stages of solving the same problem require fundamentally different mindsets. This single-minded assumption prevents models from reaching the next level of intelligence. To address this limitation, we propose Chain of Mindset (CoM), a training-free agentic framework that enables step-level adaptive mindset orchestration. CoM decomposes reasoning into four functionally heterogeneous mindsets: Spatial, Convergent, Divergent, and Algorithmic. A Meta-Agent dynamically selects the optimal mindset based on the evolving reasoning state, while a bidirectional Context Gate filters cross-module information flow to maintain effectiveness and efficiency. Experiments across six challenging benchmarks spanning mathematics, code generation, scientific QA, and spatial reasoning demonstrate that CoM achieves state-of-the-art performance, outperforming the strongest baseline by 4.96\% and 4.72\% in overall accuracy on Qwen3-VL-32B-Instruct and Gemini-2.0-Flash, while balancing reasoning efficiency. Our code is publicly available at https://github.com/QuantaAlpha/chain-of-mindset{https://github.com/QuantaAlpha/chain-of-mindset}.
PDF621February 12, 2026