Una Revisión del Razonamiento Eficiente para Modelos de Razonamiento a Gran Escala: Lenguaje, Multimodalidad y Más Allá
A Survey of Efficient Reasoning for Large Reasoning Models: Language, Multimodality, and Beyond
March 27, 2025
Autores: Xiaoye Qu, Yafu Li, Zhaochen Su, Weigao Sun, Jianhao Yan, Dongrui Liu, Ganqu Cui, Daizong Liu, Shuxian Liang, Junxian He, Peng Li, Wei Wei, Jing Shao, Chaochao Lu, Yue Zhang, Xian-Sheng Hua, Bowen Zhou, Yu Cheng
cs.AI
Resumen
Los recientes Modelos de Razonamiento a Gran Escala (LRMs, por sus siglas en inglés), como DeepSeek-R1 y OpenAI o1, han demostrado importantes mejoras en el rendimiento al escalar la longitud del razonamiento en Cadena de Pensamiento (CoT, por sus siglas en inglés) durante la inferencia. Sin embargo, una preocupación creciente radica en su tendencia a generar trazas de razonamiento excesivamente largas, que a menudo están llenas de contenido redundante (por ejemplo, definiciones repetidas), sobreanálisis de problemas simples y exploración superficial de múltiples caminos de razonamiento para tareas más complejas. Esta ineficiencia introduce desafíos significativos para el entrenamiento, la inferencia y el despliegue en entornos reales (por ejemplo, en sistemas basados en agentes), donde la economía de tokens es crítica. En este estudio, ofrecemos una visión general exhaustiva de los esfuerzos recientes destinados a mejorar la eficiencia del razonamiento en los LRMs, con un enfoque particular en los desafíos únicos que surgen en este nuevo paradigma. Identificamos patrones comunes de ineficiencia, examinamos los métodos propuestos a lo largo del ciclo de vida de los LRMs, desde el preentrenamiento hasta la inferencia, y discutimos direcciones futuras prometedoras para la investigación. Para apoyar el desarrollo continuo, también mantenemos un repositorio en GitHub en tiempo real que rastrea los avances recientes en el campo. Esperamos que este estudio sirva como base para una mayor exploración e inspire innovación en esta área en rápida evolución.
English
Recent Large Reasoning Models (LRMs), such as DeepSeek-R1 and OpenAI o1, have
demonstrated strong performance gains by scaling up the length of
Chain-of-Thought (CoT) reasoning during inference. However, a growing concern
lies in their tendency to produce excessively long reasoning traces, which are
often filled with redundant content (e.g., repeated definitions), over-analysis
of simple problems, and superficial exploration of multiple reasoning paths for
harder tasks. This inefficiency introduces significant challenges for training,
inference, and real-world deployment (e.g., in agent-based systems), where
token economy is critical. In this survey, we provide a comprehensive overview
of recent efforts aimed at improving reasoning efficiency in LRMs, with a
particular focus on the unique challenges that arise in this new paradigm. We
identify common patterns of inefficiency, examine methods proposed across the
LRM lifecycle, i.e., from pretraining to inference, and discuss promising
future directions for research. To support ongoing development, we also
maintain a real-time GitHub repository tracking recent progress in the field.
We hope this survey serves as a foundation for further exploration and inspires
innovation in this rapidly evolving area.Summary
AI-Generated Summary