ChatPaper.aiChatPaper

Fallas en el Razonamiento de los Modelos de Lenguaje a Gran Escala

Large Language Model Reasoning Failures

February 5, 2026
Autores: Peiyang Song, Pengrui Han, Noah Goodman
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLM) han demostrado capacidades de razonamiento notables, logrando resultados impresionantes en una amplia gama de tareas. A pesar de estos avances, persisten fallos significativos de razonamiento, que ocurren incluso en escenarios aparentemente simples. Para comprender y abordar sistemáticamente estas deficiencias, presentamos la primera revisión integral dedicada a los fallos de razonamiento en los LLM. Introducimos un novedoso marco de categorización que distingue el razonamiento en tipos encarnado y no encarnado, subdividiendo este último en razonamiento informal (intuitivo) y formal (lógico). Paralelamente, clasificamos los fallos de razonamiento a lo largo de un eje complementario en tres tipos: fallos fundamentales intrínsecos a las arquitecturas de los LLM que afectan ampliamente a las tareas posteriores; limitaciones específicas de aplicación que se manifiestan en dominios particulares; y problemas de robustez caracterizados por un rendimiento inconsistente ante variaciones menores. Para cada fallo de razonamiento, proporcionamos una definición clara, analizamos estudios existentes, exploramos las causas profundas y presentamos estrategias de mitigación. Al unificar esfuerzos de investigación fragmentados, nuestra revisión ofrece una perspectiva estructurada sobre las debilidades sistémicas en el razonamiento de los LLM, proporcionando información valiosa y guiando la investigación futura hacia la construcción de capacidades de razonamiento más sólidas, fiables y robustas. Adicionalmente, publicamos una colección exhaustiva de trabajos de investigación sobre fallos de razonamiento en LLM, como un repositorio de GitHub en https://github.com/Peiyang-Song/Awesome-LLM-Reasoning-Failures, para proporcionar un punto de acceso sencillo a esta área.
English
Large Language Models (LLMs) have exhibited remarkable reasoning capabilities, achieving impressive results across a wide range of tasks. Despite these advances, significant reasoning failures persist, occurring even in seemingly simple scenarios. To systematically understand and address these shortcomings, we present the first comprehensive survey dedicated to reasoning failures in LLMs. We introduce a novel categorization framework that distinguishes reasoning into embodied and non-embodied types, with the latter further subdivided into informal (intuitive) and formal (logical) reasoning. In parallel, we classify reasoning failures along a complementary axis into three types: fundamental failures intrinsic to LLM architectures that broadly affect downstream tasks; application-specific limitations that manifest in particular domains; and robustness issues characterized by inconsistent performance across minor variations. For each reasoning failure, we provide a clear definition, analyze existing studies, explore root causes, and present mitigation strategies. By unifying fragmented research efforts, our survey provides a structured perspective on systemic weaknesses in LLM reasoning, offering valuable insights and guiding future research towards building stronger, more reliable, and robust reasoning capabilities. We additionally release a comprehensive collection of research works on LLM reasoning failures, as a GitHub repository at https://github.com/Peiyang-Song/Awesome-LLM-Reasoning-Failures, to provide an easy entry point to this area.
PDF113March 16, 2026