ChatPaper.aiChatPaper

Une étude sur le raisonnement efficace pour les modèles de raisonnement à grande échelle : langage, multimodalité et au-delà

A Survey of Efficient Reasoning for Large Reasoning Models: Language, Multimodality, and Beyond

March 27, 2025
Auteurs: Xiaoye Qu, Yafu Li, Zhaochen Su, Weigao Sun, Jianhao Yan, Dongrui Liu, Ganqu Cui, Daizong Liu, Shuxian Liang, Junxian He, Peng Li, Wei Wei, Jing Shao, Chaochao Lu, Yue Zhang, Xian-Sheng Hua, Bowen Zhou, Yu Cheng
cs.AI

Résumé

Les modèles récents de raisonnement à grande échelle (Large Reasoning Models, LRMs), tels que DeepSeek-R1 et OpenAI o1, ont démontré des gains de performance significatifs en augmentant la longueur des chaînes de raisonnement (Chain-of-Thought, CoT) lors de l'inférence. Cependant, une préoccupation croissante réside dans leur tendance à produire des traces de raisonnement excessivement longues, souvent remplies de contenu redondant (par exemple, des définitions répétées), d'une sur-analyse de problèmes simples et d'une exploration superficielle de multiples chemins de raisonnement pour des tâches plus complexes. Cette inefficacité introduit des défis majeurs pour l'entraînement, l'inférence et le déploiement en conditions réelles (par exemple, dans les systèmes basés sur des agents), où l'économie de tokens est cruciale. Dans cette étude, nous offrons un aperçu complet des efforts récents visant à améliorer l'efficacité du raisonnement dans les LRMs, en mettant particulièrement l'accent sur les défis uniques qui émergent dans ce nouveau paradigme. Nous identifions les schémas courants d'inefficacité, examinons les méthodes proposées tout au long du cycle de vie des LRMs, c'est-à-dire du pré-entraînement à l'inférence, et discutons des directions futures prometteuses pour la recherche. Pour soutenir le développement en cours, nous maintenons également un dépôt GitHub en temps réel qui suit les progrès récents dans ce domaine. Nous espérons que cette étude servira de base pour des explorations ultérieures et inspirera l'innovation dans ce domaine en évolution rapide.
English
Recent Large Reasoning Models (LRMs), such as DeepSeek-R1 and OpenAI o1, have demonstrated strong performance gains by scaling up the length of Chain-of-Thought (CoT) reasoning during inference. However, a growing concern lies in their tendency to produce excessively long reasoning traces, which are often filled with redundant content (e.g., repeated definitions), over-analysis of simple problems, and superficial exploration of multiple reasoning paths for harder tasks. This inefficiency introduces significant challenges for training, inference, and real-world deployment (e.g., in agent-based systems), where token economy is critical. In this survey, we provide a comprehensive overview of recent efforts aimed at improving reasoning efficiency in LRMs, with a particular focus on the unique challenges that arise in this new paradigm. We identify common patterns of inefficiency, examine methods proposed across the LRM lifecycle, i.e., from pretraining to inference, and discuss promising future directions for research. To support ongoing development, we also maintain a real-time GitHub repository tracking recent progress in the field. We hope this survey serves as a foundation for further exploration and inspires innovation in this rapidly evolving area.

Summary

AI-Generated Summary

PDF394March 31, 2025