ChatPaper.aiChatPaper

Dal Token all'Azione: Ragionamento a Macchina a Stati per Mitigare il Sovrapensiero nel Recupero delle Informazioni

From Token to Action: State Machine Reasoning to Mitigate Overthinking in Information Retrieval

May 29, 2025
Autori: Dohyeon Lee, Yeonseok Jeong, Seung-won Hwang
cs.AI

Abstract

Il prompting a Catena di Pensiero (Chain-of-Thought, CoT) abilita il ragionamento complesso nei grandi modelli linguistici (Large Language Models, LLMs), inclusi applicazioni nel recupero delle informazioni (Information Retrieval, IR). Tuttavia, spesso porta a un eccesso di pensiero, dove i modelli producono tracce eccessivamente lunghe e semanticamente ridondanti con poco o nessun beneficio. Identifichiamo due sfide chiave nell'IR: traiettorie ridondanti che rivisitano stati simili e ragionamenti fuorvianti che divergono dall'intento dell'utente. Per affrontare questi problemi, proponiamo il Ragionamento a Macchina a Stati (State Machine Reasoning, SMR), un framework di ragionamento basato su transizioni composto da azioni discrete (Affina, Rirangia, Ferma) che supportano l'arresto anticipato e un controllo fine. Gli esperimenti sui benchmark BEIR e BRIGHT mostrano che SMR migliora le prestazioni di recupero (nDCG@10) del 3,4% riducendo l'uso di token del 74,4%. Si generalizza attraverso LLM e sistemi di recupero senza richiedere una regolazione specifica per il compito, offrendo un'alternativa pratica al ragionamento CoT convenzionale. Il codice e i dettagli sono disponibili su https://github.com/ldilab/SMR.
English
Chain-of-Thought (CoT) prompting enables complex reasoning in large language models (LLMs), including applications in information retrieval (IR). However, it often leads to overthinking, where models produce excessively long and semantically redundant traces with little or no benefit. We identify two key challenges in IR: redundant trajectories that revisit similar states and misguided reasoning that diverges from user intent. To address these, we propose State Machine Reasoning (SMR), a transition-based reasoning framework composed of discrete actions (Refine, Rerank, Stop) that support early stopping and fine-grained control. Experiments on the BEIR and BRIGHT benchmarks show that SMR improves retrieval performance (nDCG@10) by 3.4% while reducing token usage by 74.4%. It generalizes across LLMs and retrievers without requiring task-specific tuning, offering a practical alternative to conventional CoT reasoning. The code and details are available at https://github.com/ldilab/SMR.
PDF132June 3, 2025