Les modèles de raisonnement génèrent des sociétés de pensée.
Reasoning Models Generate Societies of Thought
January 15, 2026
papers.authors: Junsol Kim, Shiyang Lai, Nino Scherrer, Blaise Agüera y Arcas, James Evans
cs.AI
papers.abstract
Les grands modèles de langage ont atteint des capacités remarquables dans divers domaines, mais les mécanismes sous-jacents au raisonnement sophistiqué restent insaisissables. Les modèles de raisonnement récents surpassent les modèles à instruction comparables dans les tâches cognitives complexes, ce qui est attribué à un calcul étendu via des chaînes de pensée plus longues. Nous montrons ici que le raisonnement amélioré émerge non pas du seul calcul étendu, mais de la simulation d'interactions de type multi-agents – une société de la pensée – qui permet la diversification et le débat entre des perspectives cognitives internes caractérisées par des traits de personnalité distincts et une expertise domainaire. Par une analyse quantitative et des méthodes d'interprétabilité mécanistique appliquées aux traces de raisonnement, nous constatons que des modèles comme DeepSeek-R1 et QwQ-32B présentent une diversité de perspectives bien plus grande que les modèles à instruction, activant un conflit plus étendu entre des caractéristiques hétérogènes liées à la personnalité et à l'expertise durant le raisonnement. Cette structure multi-agents se manifeste dans les comportements conversationnels, incluant les questions-réponses, les changements de perspective et la réconciliation de points de vue conflictuels, ainsi que dans des rôles socio-émotionnels caractérisant des conversations vives et dynamiques, expliquant ensemble l'avantage en précision dans les tâches de raisonnement. Des expériences contrôlées d'apprentissage par renforcement révèlent que les modèles de base augmentent les comportements conversationnels lorsqu'ils sont récompensés uniquement pour la précision du raisonnement, et que l'affinage des modèles avec un échafaudage conversationnel accélère l'amélioration du raisonnement par rapport aux modèles de base. Ces résultats indiquent que l'organisation sociale de la pensée permet une exploration efficace des espaces de solutions. Nous suggérons que les modèles de raisonnement établissent un parallèle computationnel avec l'intelligence collective dans les groupes humains, où la diversité permet une résolution de problèmes supérieure lorsqu'elle est systématiquement structurée, ce qui ouvre de nouvelles opportunités pour que l'organisation des agents exploite la sagesse des foules.
English
Large language models have achieved remarkable capabilities across domains, yet mechanisms underlying sophisticated reasoning remain elusive. Recent reasoning models outperform comparable instruction-tuned models on complex cognitive tasks, attributed to extended computation through longer chains of thought. Here we show that enhanced reasoning emerges not from extended computation alone, but from simulating multi-agent-like interactions -- a society of thought -- which enables diversification and debate among internal cognitive perspectives characterized by distinct personality traits and domain expertise. Through quantitative analysis and mechanistic interpretability methods applied to reasoning traces, we find that reasoning models like DeepSeek-R1 and QwQ-32B exhibit much greater perspective diversity than instruction-tuned models, activating broader conflict between heterogeneous personality- and expertise-related features during reasoning. This multi-agent structure manifests in conversational behaviors, including question-answering, perspective shifts, and the reconciliation of conflicting views, and in socio-emotional roles that characterize sharp back-and-forth conversations, together accounting for the accuracy advantage in reasoning tasks. Controlled reinforcement learning experiments reveal that base models increase conversational behaviors when rewarded solely for reasoning accuracy, and fine-tuning models with conversational scaffolding accelerates reasoning improvement over base models. These findings indicate that the social organization of thought enables effective exploration of solution spaces. We suggest that reasoning models establish a computational parallel to collective intelligence in human groups, where diversity enables superior problem-solving when systematically structured, which suggests new opportunities for agent organization to harness the wisdom of crowds.