ChatPaper.aiChatPaper

Del Token a la Acción: Razonamiento con Máquinas de Estado para Mitigar el Sobreanálisis en Recuperación de Información

From Token to Action: State Machine Reasoning to Mitigate Overthinking in Information Retrieval

May 29, 2025
Autores: Dohyeon Lee, Yeonseok Jeong, Seung-won Hwang
cs.AI

Resumen

El enfoque Chain-of-Thought (CoT) permite el razonamiento complejo en modelos de lenguaje de gran escala (LLMs), incluyendo aplicaciones en recuperación de información (IR). Sin embargo, a menudo conduce a un sobrepensamiento, donde los modelos producen trazas excesivamente largas y semánticamente redundantes con poco o ningún beneficio. Identificamos dos desafíos clave en IR: trayectorias redundantes que revisitan estados similares y razonamientos desviados que divergen de la intención del usuario. Para abordar estos problemas, proponemos State Machine Reasoning (SMR), un marco de razonamiento basado en transiciones compuesto por acciones discretas (Refinar, Reordenar, Detener) que permiten una detención temprana y un control detallado. Los experimentos en los benchmarks BEIR y BRIGHT muestran que SMR mejora el rendimiento en recuperación (nDCG@10) en un 3.4% mientras reduce el uso de tokens en un 74.4%. Además, se generaliza en diferentes LLMs y sistemas de recuperación sin necesidad de ajustes específicos por tarea, ofreciendo una alternativa práctica al razonamiento CoT convencional. El código y los detalles están disponibles en https://github.com/ldilab/SMR.
English
Chain-of-Thought (CoT) prompting enables complex reasoning in large language models (LLMs), including applications in information retrieval (IR). However, it often leads to overthinking, where models produce excessively long and semantically redundant traces with little or no benefit. We identify two key challenges in IR: redundant trajectories that revisit similar states and misguided reasoning that diverges from user intent. To address these, we propose State Machine Reasoning (SMR), a transition-based reasoning framework composed of discrete actions (Refine, Rerank, Stop) that support early stopping and fine-grained control. Experiments on the BEIR and BRIGHT benchmarks show that SMR improves retrieval performance (nDCG@10) by 3.4% while reducing token usage by 74.4%. It generalizes across LLMs and retrievers without requiring task-specific tuning, offering a practical alternative to conventional CoT reasoning. The code and details are available at https://github.com/ldilab/SMR.
PDF132June 3, 2025