ChatPaper.aiChatPaper

Modelos de Razonamiento Eficiente: Una Revisión

Efficient Reasoning Models: A Survey

April 15, 2025
Autores: Sicheng Feng, Gongfan Fang, Xinyin Ma, Xinchao Wang
cs.AI

Resumen

Los modelos de razonamiento han demostrado un progreso notable en la resolución de tareas complejas e intensivas en lógica al generar Cadenas de Pensamiento (CoTs, por sus siglas en inglés) extensas antes de llegar a una respuesta final. Sin embargo, el surgimiento de este paradigma de "pensamiento lento", con numerosos tokens generados en secuencia, introduce inevitablemente una sobrecarga computacional significativa. Por ello, se destaca la necesidad urgente de una aceleración efectiva. Este estudio tiene como objetivo proporcionar una visión general exhaustiva de los avances recientes en el razonamiento eficiente. Clasifica los trabajos existentes en tres direcciones clave: (1) más corto: comprimir CoTs extensas en cadenas de razonamiento concisas pero efectivas; (2) más pequeño: desarrollar modelos de lenguaje compactos con capacidades de razonamiento sólidas mediante técnicas como la destilación de conocimiento, otras técnicas de compresión de modelos y aprendizaje por refuerzo; y (3) más rápido: diseñar estrategias de decodificación eficientes para acelerar la inferencia. Una colección seleccionada de los artículos discutidos en este estudio está disponible en nuestro repositorio de GitHub.
English
Reasoning models have demonstrated remarkable progress in solving complex and logic-intensive tasks by generating extended Chain-of-Thoughts (CoTs) prior to arriving at a final answer. Yet, the emergence of this "slow-thinking" paradigm, with numerous tokens generated in sequence, inevitably introduces substantial computational overhead. To this end, it highlights an urgent need for effective acceleration. This survey aims to provide a comprehensive overview of recent advances in efficient reasoning. It categorizes existing works into three key directions: (1) shorter - compressing lengthy CoTs into concise yet effective reasoning chains; (2) smaller - developing compact language models with strong reasoning capabilities through techniques such as knowledge distillation, other model compression techniques, and reinforcement learning; and (3) faster - designing efficient decoding strategies to accelerate inference. A curated collection of papers discussed in this survey is available in our GitHub repository.

Summary

AI-Generated Summary

PDF184April 16, 2025