ChatPaper.aiChatPaper

Do Token à Ação: Raciocínio com Máquina de Estados para Mitigar o Pensamento Excessivo na Recuperação de Informação

From Token to Action: State Machine Reasoning to Mitigate Overthinking in Information Retrieval

May 29, 2025
Autores: Dohyeon Lee, Yeonseok Jeong, Seung-won Hwang
cs.AI

Resumo

O prompting Chain-of-Thought (CoT) permite raciocínio complexo em grandes modelos de linguagem (LLMs), incluindo aplicações em recuperação de informação (IR). No entanto, ele frequentemente leva a um excesso de pensamento, onde os modelos produzem traços excessivamente longos e semanticamente redundantes com pouco ou nenhum benefício. Identificamos dois desafios principais em IR: trajetórias redundantes que revisitam estados semelhantes e raciocínios equivocados que divergem da intenção do usuário. Para abordar esses problemas, propomos o State Machine Reasoning (SMR), um framework de raciocínio baseado em transições composto por ações discretas (Refinar, Reordenar, Parar) que suportam parada antecipada e controle refinado. Experimentos nos benchmarks BEIR e BRIGHT mostram que o SMR melhora o desempenho de recuperação (nDCG@10) em 3,4% enquanto reduz o uso de tokens em 74,4%. Ele generaliza-se entre LLMs e recuperadores sem exigir ajustes específicos para a tarefa, oferecendo uma alternativa prática ao raciocínio CoT convencional. O código e os detalhes estão disponíveis em https://github.com/ldilab/SMR.
English
Chain-of-Thought (CoT) prompting enables complex reasoning in large language models (LLMs), including applications in information retrieval (IR). However, it often leads to overthinking, where models produce excessively long and semantically redundant traces with little or no benefit. We identify two key challenges in IR: redundant trajectories that revisit similar states and misguided reasoning that diverges from user intent. To address these, we propose State Machine Reasoning (SMR), a transition-based reasoning framework composed of discrete actions (Refine, Rerank, Stop) that support early stopping and fine-grained control. Experiments on the BEIR and BRIGHT benchmarks show that SMR improves retrieval performance (nDCG@10) by 3.4% while reducing token usage by 74.4%. It generalizes across LLMs and retrievers without requiring task-specific tuning, offering a practical alternative to conventional CoT reasoning. The code and details are available at https://github.com/ldilab/SMR.
PDF132June 3, 2025