Aprovechando la Economía del Razonamiento: Una Revisión del Razonamiento Eficiente para Modelos de Lenguaje a Gran Escala
Harnessing the Reasoning Economy: A Survey of Efficient Reasoning for Large Language Models
March 31, 2025
Autores: Rui Wang, Hongru Wang, Boyang Xue, Jianhui Pang, Shudong Liu, Yi Chen, Jiahao Qiu, Derek Fai Wong, Heng Ji, Kam-Fai Wong
cs.AI
Resumen
Los recientes avances en los Modelos de Lenguaje a Gran Escala (LLMs, por sus siglas en inglés) han mejorado significativamente su capacidad para realizar tareas de razonamiento complejo, transitando desde un pensamiento rápido e intuitivo (Sistema 1) hacia un razonamiento lento y profundo (Sistema 2). Si bien el razonamiento del Sistema 2 mejora la precisión en las tareas, a menudo conlleva costos computacionales sustanciales debido a su naturaleza de pensamiento lento y a comportamientos de razonamiento ineficientes o innecesarios. Por el contrario, el razonamiento del Sistema 1 es computacionalmente eficiente, pero resulta en un rendimiento subóptimo. En consecuencia, es crucial equilibrar la relación entre el rendimiento (beneficios) y los costos computacionales (presupuestos), lo que da lugar al concepto de economía de razonamiento. En este estudio, proporcionamos un análisis exhaustivo de la economía de razonamiento tanto en las etapas de posentrenamiento como en la inferencia en tiempo de prueba de los LLMs, abarcando i) la causa de la ineficiencia en el razonamiento, ii) el análisis del comportamiento de diferentes patrones de razonamiento y iii) posibles soluciones para lograr una economía de razonamiento. Al ofrecer ideas prácticas y destacar desafíos abiertos, nuestro objetivo es iluminar estrategias para mejorar la economía de razonamiento de los LLMs, sirviendo así como un recurso valioso para avanzar en la investigación de esta área en evolución. También proporcionamos un repositorio público para rastrear continuamente los desarrollos en este campo de rápida evolución.
English
Recent advancements in Large Language Models (LLMs) have significantly
enhanced their ability to perform complex reasoning tasks, transitioning from
fast and intuitive thinking (System 1) to slow and deep reasoning (System 2).
While System 2 reasoning improves task accuracy, it often incurs substantial
computational costs due to its slow thinking nature and inefficient or
unnecessary reasoning behaviors. In contrast, System 1 reasoning is
computationally efficient but leads to suboptimal performance. Consequently, it
is critical to balance the trade-off between performance (benefits) and
computational costs (budgets), giving rise to the concept of reasoning economy.
In this survey, we provide a comprehensive analysis of reasoning economy in
both the post-training and test-time inference stages of LLMs, encompassing i)
the cause of reasoning inefficiency, ii) behavior analysis of different
reasoning patterns, and iii) potential solutions to achieve reasoning economy.
By offering actionable insights and highlighting open challenges, we aim to
shed light on strategies for improving the reasoning economy of LLMs, thereby
serving as a valuable resource for advancing research in this evolving area. We
also provide a public repository to continually track developments in this
fast-evolving field.Summary
AI-Generated Summary