ChatPaper.aiChatPaper

Du jeton à l'action : Raisonnement par machine à états pour atténuer la surréflexion dans la recherche d'information

From Token to Action: State Machine Reasoning to Mitigate Overthinking in Information Retrieval

May 29, 2025
Auteurs: Dohyeon Lee, Yeonseok Jeong, Seung-won Hwang
cs.AI

Résumé

Le prompt Chain-of-Thought (CoT) permet un raisonnement complexe dans les grands modèles de langage (LLMs), y compris pour des applications en recherche d'information (IR). Cependant, il conduit souvent à une surréflexion, où les modèles produisent des traces excessivement longues et sémantiquement redondantes avec peu ou pas d'avantage. Nous identifions deux défis majeurs en IR : les trajectoires redondantes qui revisitent des états similaires et le raisonnement erroné qui s'écarte de l'intention de l'utilisateur. Pour y remédier, nous proposons le State Machine Reasoning (SMR), un cadre de raisonnement basé sur des transitions composées d'actions discrètes (Affiner, Reclasser, Arrêter) qui permettent un arrêt précoce et un contrôle fin. Les expériences sur les benchmarks BEIR et BRIGHT montrent que SMR améliore la performance de recherche (nDCG@10) de 3,4 % tout en réduisant l'utilisation de tokens de 74,4 %. Il se généralise à travers différents LLMs et systèmes de recherche sans nécessiter de réglage spécifique à la tâche, offrant une alternative pratique au raisonnement CoT conventionnel. Le code et les détails sont disponibles à l'adresse https://github.com/ldilab/SMR.
English
Chain-of-Thought (CoT) prompting enables complex reasoning in large language models (LLMs), including applications in information retrieval (IR). However, it often leads to overthinking, where models produce excessively long and semantically redundant traces with little or no benefit. We identify two key challenges in IR: redundant trajectories that revisit similar states and misguided reasoning that diverges from user intent. To address these, we propose State Machine Reasoning (SMR), a transition-based reasoning framework composed of discrete actions (Refine, Rerank, Stop) that support early stopping and fine-grained control. Experiments on the BEIR and BRIGHT benchmarks show that SMR improves retrieval performance (nDCG@10) by 3.4% while reducing token usage by 74.4%. It generalizes across LLMs and retrievers without requiring task-specific tuning, offering a practical alternative to conventional CoT reasoning. The code and details are available at https://github.com/ldilab/SMR.
PDF132June 3, 2025