ChatPaper.aiChatPaper

L'Encyclopédie CoT : Analyser, Prédire et Contrôler le Raisonnement d'un Modèle de Pensée

The CoT Encyclopedia: Analyzing, Predicting, and Controlling how a Reasoning Model will Think

May 15, 2025
Auteurs: Seongyun Lee, Seungone Kim, Minju Seo, Yongrae Jo, Dongyoung Go, Hyeonbin Hwang, Jinho Park, Xiang Yue, Sean Welleck, Graham Neubig, Moontae Lee, Minjoon Seo
cs.AI

Résumé

La longue chaîne de raisonnement (CoT) est un élément essentiel pour une utilisation efficace des grands modèles de langage modernes, mais notre compréhension des stratégies de raisonnement sous-jacentes à ces capacités reste limitée. Bien que certains travaux antérieurs aient tenté de catégoriser les CoT en utilisant des types de stratégies prédéfinis, ces approches sont contraintes par l'intuition humaine et ne parviennent pas à capturer toute la diversité des comportements des modèles. Dans ce travail, nous introduisons l'Encyclopédie CoT, un cadre d'analyse et de pilotage du raisonnement des modèles basé sur une approche ascendante. Notre méthode extrait automatiquement des critères de raisonnement variés à partir des CoT générés par les modèles, les intègre dans un espace sémantique, les regroupe en catégories représentatives et dérive des grilles contrastées pour interpréter les comportements de raisonnement. Les évaluations humaines montrent que ce cadre produit des analyses plus interprétables et complètes que les méthodes existantes. De plus, nous démontrons que cette compréhension permet des gains de performance : nous pouvons prédire quelle stratégie un modèle est susceptible d'utiliser et le guider vers des alternatives plus efficaces. Enfin, nous fournissons des insights pratiques, tels que le fait que le format des données d'entraînement (par exemple, libre vs. à choix multiples) a un impact bien plus important sur le comportement de raisonnement que le domaine des données, soulignant l'importance d'une conception de modèles consciente du format.
English
Long chain-of-thought (CoT) is an essential ingredient in effective usage of modern large language models, but our understanding of the reasoning strategies underlying these capabilities remains limited. While some prior works have attempted to categorize CoTs using predefined strategy types, such approaches are constrained by human intuition and fail to capture the full diversity of model behaviors. In this work, we introduce the CoT Encyclopedia, a bottom-up framework for analyzing and steering model reasoning. Our method automatically extracts diverse reasoning criteria from model-generated CoTs, embeds them into a semantic space, clusters them into representative categories, and derives contrastive rubrics to interpret reasoning behavior. Human evaluations show that this framework produces more interpretable and comprehensive analyses than existing methods. Moreover, we demonstrate that this understanding enables performance gains: we can predict which strategy a model is likely to use and guide it toward more effective alternatives. Finally, we provide practical insights, such as that training data format (e.g., free-form vs. multiple-choice) has a far greater impact on reasoning behavior than data domain, underscoring the importance of format-aware model design.

Summary

AI-Generated Summary

PDF162May 16, 2025