ChatPaper.aiChatPaper

Ne Pas Trop Réfléchir : Un Aperçu des Modèles de Raisonnement à Grande Échelle de Style R1 Efficaces

Don't Overthink It: A Survey of Efficient R1-style Large Reasoning Models

August 4, 2025
papers.authors: Linan Yue, Yichao Du, Yizhi Wang, Weibo Gao, Fangzhou Yao, Li Wang, Ye Liu, Ziyu Xu, Qi Liu, Shimin Di, Min-Ling Zhang
cs.AI

papers.abstract

Récemment, les modèles de raisonnement à grande échelle (Large Reasoning Models, LRMs) sont progressivement devenus un sujet de recherche privilégié en raison de leurs performances exceptionnelles dans la gestion de tâches complexes. Parmi eux, DeepSeek R1 a suscité une attention particulière pour ses performances remarquables et son caractère open-source, stimulant ainsi les avancées dans la recherche sur les LRMs de style R1. Contrairement aux modèles de langage à grande échelle (Large Language Models, LLMs) traditionnels, ces modèles améliorent les capacités de déduction logique et de prise de décision lors du raisonnement en intégrant des mécanismes tels que les chaînes de pensée longues et l'auto-réflexion via l'apprentissage par renforcement. Cependant, avec l'application généralisée de ces modèles, le problème de la sur-réflexion a progressivement émergé. Plus précisément, lors de la génération de réponses, ces modèles construisent souvent des chaînes de raisonnement excessivement longues avec des étapes redondantes ou répétitives, ce qui réduit l'efficacité du raisonnement et peut affecter la précision de la réponse finale. Pour remédier à cela, diverses méthodes de raisonnement efficace ont été proposées, visant à réduire la longueur des chemins de raisonnement sans compromettre les performances du modèle et sa capacité de raisonnement. En examinant systématiquement les avancées actuelles de la recherche dans le domaine des méthodes de raisonnement efficace, nous classons les travaux existants en deux grandes directions basées sur l'optimisation d'un modèle unique versus la collaboration entre modèles : (1) le raisonnement efficace avec un modèle unique, qui se concentre sur l'amélioration de l'efficacité du raisonnement des modèles individuels ; et (2) le raisonnement efficace par collaboration de modèles, qui explore l'optimisation des chemins de raisonnement grâce à la collaboration entre plusieurs modèles. Par ailleurs, nous maintenons un dépôt GitHub public qui suit les derniers progrès dans les méthodes de raisonnement efficace.
English
Recently, Large Reasoning Models (LRMs) have gradually become a research hotspot due to their outstanding performance in handling complex tasks. Among them, DeepSeek R1 has garnered significant attention for its exceptional performance and open-source nature, driving advancements in the research of R1-style LRMs. Unlike traditional Large Language Models (LLMs), these models enhance logical deduction and decision-making capabilities during reasoning by incorporating mechanisms such as long chain-of-thought and self-reflection through reinforcement learning. However, with the widespread application of these models, the problem of overthinking has gradually emerged. Specifically, when generating answers, these models often construct excessively long reasoning chains with redundant or repetitive steps, which leads to reduced reasoning efficiency and may affect the accuracy of the final answer. To this end, various efficient reasoning methods have been proposed, aiming to reduce the length of reasoning paths without compromising model performance and reasoning capability. By reviewing the current research advancements in the field of efficient reasoning methods systematically, we categorize existing works into two main directions based on the lens of single-model optimization versus model collaboration: (1) Efficient Reasoning with Single Model, which focuses on improving the reasoning efficiency of individual models; and (2) Efficient Reasoning with Model Collaboration, which explores optimizing reasoning paths through collaboration among multiple models. Besides, we maintain a public GitHub repository that tracks the latest progress in efficient reasoning methods.
PDF152August 8, 2025