Ne Pas Trop Réfléchir : Un Aperçu des Modèles de Raisonnement à Grande Échelle de Style R1 Efficaces
Don't Overthink It: A Survey of Efficient R1-style Large Reasoning Models
August 4, 2025
papers.authors: Linan Yue, Yichao Du, Yizhi Wang, Weibo Gao, Fangzhou Yao, Li Wang, Ye Liu, Ziyu Xu, Qi Liu, Shimin Di, Min-Ling Zhang
cs.AI
papers.abstract
Récemment, les modèles de raisonnement à grande échelle (Large Reasoning Models, LRMs) sont progressivement devenus un sujet de recherche privilégié en raison de leurs performances exceptionnelles dans la gestion de tâches complexes. Parmi eux, DeepSeek R1 a suscité une attention particulière pour ses performances remarquables et son caractère open-source, stimulant ainsi les avancées dans la recherche sur les LRMs de style R1. Contrairement aux modèles de langage à grande échelle (Large Language Models, LLMs) traditionnels, ces modèles améliorent les capacités de déduction logique et de prise de décision lors du raisonnement en intégrant des mécanismes tels que les chaînes de pensée longues et l'auto-réflexion via l'apprentissage par renforcement. Cependant, avec l'application généralisée de ces modèles, le problème de la sur-réflexion a progressivement émergé. Plus précisément, lors de la génération de réponses, ces modèles construisent souvent des chaînes de raisonnement excessivement longues avec des étapes redondantes ou répétitives, ce qui réduit l'efficacité du raisonnement et peut affecter la précision de la réponse finale. Pour remédier à cela, diverses méthodes de raisonnement efficace ont été proposées, visant à réduire la longueur des chemins de raisonnement sans compromettre les performances du modèle et sa capacité de raisonnement. En examinant systématiquement les avancées actuelles de la recherche dans le domaine des méthodes de raisonnement efficace, nous classons les travaux existants en deux grandes directions basées sur l'optimisation d'un modèle unique versus la collaboration entre modèles : (1) le raisonnement efficace avec un modèle unique, qui se concentre sur l'amélioration de l'efficacité du raisonnement des modèles individuels ; et (2) le raisonnement efficace par collaboration de modèles, qui explore l'optimisation des chemins de raisonnement grâce à la collaboration entre plusieurs modèles. Par ailleurs, nous maintenons un dépôt GitHub public qui suit les derniers progrès dans les méthodes de raisonnement efficace.
English
Recently, Large Reasoning Models (LRMs) have gradually become a research
hotspot due to their outstanding performance in handling complex tasks. Among
them, DeepSeek R1 has garnered significant attention for its exceptional
performance and open-source nature, driving advancements in the research of
R1-style LRMs. Unlike traditional Large Language Models (LLMs), these models
enhance logical deduction and decision-making capabilities during reasoning by
incorporating mechanisms such as long chain-of-thought and self-reflection
through reinforcement learning. However, with the widespread application of
these models, the problem of overthinking has gradually emerged. Specifically,
when generating answers, these models often construct excessively long
reasoning chains with redundant or repetitive steps, which leads to reduced
reasoning efficiency and may affect the accuracy of the final answer. To this
end, various efficient reasoning methods have been proposed, aiming to reduce
the length of reasoning paths without compromising model performance and
reasoning capability. By reviewing the current research advancements in the
field of efficient reasoning methods systematically, we categorize existing
works into two main directions based on the lens of single-model optimization
versus model collaboration: (1) Efficient Reasoning with Single Model, which
focuses on improving the reasoning efficiency of individual models; and (2)
Efficient Reasoning with Model Collaboration, which explores optimizing
reasoning paths through collaboration among multiple models. Besides, we
maintain a public GitHub repository that tracks the latest progress in
efficient reasoning methods.