ChatPaper.aiChatPaper

Kette der Denkweise: Argumentation mit adaptiven kognitiven Modi

Chain of Mindset: Reasoning with Adaptive Cognitive Modes

February 10, 2026
papers.authors: Tianyi Jiang, Arctanx An, Hengyi Feng, Naixin Zhai, Haodong Li, Xiaomin Yu, Jiahui Liu, Hanwen Du, Shuo Zhang, Zhi Yang, Jie Huang, Yuhua Li, Yongxin Ni, Huacan Wang, Ronghao Chen
cs.AI

papers.abstract

Menschliches Problemlösen ist niemals die Wiederholung eines einzigen Denkmodus, womit wir eine bestimmte Art der kognitiven Verarbeitung meinen. Bei der Bearbeitung einer konkreten Aufgabe verlassen wir uns nicht auf einen einzelnen Denkmodus; stattdessen integrieren wir mehrere Denkmodi innerhalb eines einzigen Lösungsprozesses. Allerdings verfallen bestehende LLM-Argumentationsmethoden in eine häufige Falle: Sie wenden denselben festen Denkmodus über alle Schritte hinweg an und übersehen dabei, dass verschiedene Phasen der Lösung desselben Problems grundlegend unterschiedliche Denkmodi erfordern. Diese einseitige Annahme verhindert, dass Modelle die nächste Stufe der Intelligenz erreichen. Um diese Einschränkung zu adressieren, schlagen wir Chain of Mindset (CoM) vor, ein trainingsfreies agentenbasiertes Framework, das eine adaptive Orchestrierung von Denkmodi auf Schrittebene ermöglicht. CoM zerlegt das Schlussfolgern in vier funktional heterogene Denkmodi: Räumlich, Konvergent, Divergent und Algorithmisch. Ein Meta-Agent wählt dynamisch den optimalen Denkmodus basierend auf dem sich entwickelnden Lösungszustand aus, während ein bidirektionales Kontext-Gate den Informationsfluss zwischen den Modulen filtert, um Wirksamkeit und Effizienz zu erhalten. Experimente über sechs anspruchsvolle Benchmarks aus den Bereichen Mathematik, Code-Generierung, wissenschaftliche Frage-Antwort-Systeme und räumliches Denken zeigen, dass CoM state-of-the-art Leistung erzielt und die stärkste Baseline in der Gesamtgenauigkeit auf Qwen3-VL-32B-Instruct und Gemini-2.0-Flash um 4,96 % bzw. 4,72 % übertrifft, bei gleichzeitiger Wahrung der Effizienz des Schlussfolgerns. Unser Code ist öffentlich verfügbar unter https://github.com/QuantaAlpha/chain-of-mindset.
English
Human problem-solving is never the repetition of a single mindset, by which we mean a distinct mode of cognitive processing. When tackling a specific task, we do not rely on a single mindset; instead, we integrate multiple mindsets within the single solution process. However, existing LLM reasoning methods fall into a common trap: they apply the same fixed mindset across all steps, overlooking that different stages of solving the same problem require fundamentally different mindsets. This single-minded assumption prevents models from reaching the next level of intelligence. To address this limitation, we propose Chain of Mindset (CoM), a training-free agentic framework that enables step-level adaptive mindset orchestration. CoM decomposes reasoning into four functionally heterogeneous mindsets: Spatial, Convergent, Divergent, and Algorithmic. A Meta-Agent dynamically selects the optimal mindset based on the evolving reasoning state, while a bidirectional Context Gate filters cross-module information flow to maintain effectiveness and efficiency. Experiments across six challenging benchmarks spanning mathematics, code generation, scientific QA, and spatial reasoning demonstrate that CoM achieves state-of-the-art performance, outperforming the strongest baseline by 4.96\% and 4.72\% in overall accuracy on Qwen3-VL-32B-Instruct and Gemini-2.0-Flash, while balancing reasoning efficiency. Our code is publicly available at https://github.com/QuantaAlpha/chain-of-mindset{https://github.com/QuantaAlpha/chain-of-mindset}.
PDF621February 12, 2026