Chaîne de Mentalité : Raisonnement avec des Modes Cognitifs Adaptatifs
Chain of Mindset: Reasoning with Adaptive Cognitive Modes
February 10, 2026
papers.authors: Tianyi Jiang, Arctanx An, Hengyi Feng, Naixin Zhai, Haodong Li, Xiaomin Yu, Jiahui Liu, Hanwen Du, Shuo Zhang, Zhi Yang, Jie Huang, Yuhua Li, Yongxin Ni, Huacan Wang, Ronghao Chen
cs.AI
papers.abstract
La résolution de problèmes humains n'est jamais la répétition d'un seul état d'esprit, entendu comme un mode distinct de traitement cognitif. Face à une tâche spécifique, nous ne nous appuyons pas sur un unique état d'esprit, mais intégrons plutôt plusieurs états d'esprit au sein d'un même processus de résolution. Pourtant, les méthodes de raisonnement des LLM existantes tombent dans un piège commun : elles appliquent le même état d'esprit fixe à toutes les étapes, négligeant le fait que les différentes phases de résolution d'un même problème requièrent des états d'esprit fondamentalement différents. Cette hypothèse de rigidité cognitive empêche les modèles d'atteindre un niveau supérieur d'intelligence. Pour remédier à cette limite, nous proposons Chaîne d'États d'Esprit (CoM), un cadre agentique sans entraînement permettant une orchestration adaptative des états d'esprit au niveau de chaque étape. CoM décompose le raisonnement en quatre états d'esprit fonctionnellement hétérogènes : Spatial, Convergent, Divergent et Algorithmique. Un Méta-Agent sélectionne dynamiquement l'état d'esprit optimal en fonction de l'évolution de l'état du raisonnement, tandis qu'une Porte Contextuelle bidirectionnelle filtre les flux d'information inter-modules pour maintenir l'efficacité et l'efficience. Les expériences menées sur six benchmarks exigeants couvrant les mathématiques, la génération de code, les questions-réponses scientifiques et le raisonnement spatial démontrent que CoM atteint des performances à l'état de l'art, surpassant le meilleur modèle de référence de 4,96 % et 4,72 % en précision globale sur Qwen3-VL-32B-Instruct et Gemini-2.0-Flash, tout en équilibrant l'efficience du raisonnement. Notre code est disponible publiquement à l'adresse https://github.com/QuantaAlpha/chain-of-mindset.
English
Human problem-solving is never the repetition of a single mindset, by which we mean a distinct mode of cognitive processing. When tackling a specific task, we do not rely on a single mindset; instead, we integrate multiple mindsets within the single solution process. However, existing LLM reasoning methods fall into a common trap: they apply the same fixed mindset across all steps, overlooking that different stages of solving the same problem require fundamentally different mindsets. This single-minded assumption prevents models from reaching the next level of intelligence. To address this limitation, we propose Chain of Mindset (CoM), a training-free agentic framework that enables step-level adaptive mindset orchestration. CoM decomposes reasoning into four functionally heterogeneous mindsets: Spatial, Convergent, Divergent, and Algorithmic. A Meta-Agent dynamically selects the optimal mindset based on the evolving reasoning state, while a bidirectional Context Gate filters cross-module information flow to maintain effectiveness and efficiency. Experiments across six challenging benchmarks spanning mathematics, code generation, scientific QA, and spatial reasoning demonstrate that CoM achieves state-of-the-art performance, outperforming the strongest baseline by 4.96\% and 4.72\% in overall accuracy on Qwen3-VL-32B-Instruct and Gemini-2.0-Flash, while balancing reasoning efficiency. Our code is publicly available at https://github.com/QuantaAlpha/chain-of-mindset{https://github.com/QuantaAlpha/chain-of-mindset}.