ChatPaper.aiChatPaper

Vom Token zur Aktion: Zustandsautomaten-basiertes Denken zur Minderung von Überdenken in der Informationsgewinnung

From Token to Action: State Machine Reasoning to Mitigate Overthinking in Information Retrieval

May 29, 2025
Autoren: Dohyeon Lee, Yeonseok Jeong, Seung-won Hwang
cs.AI

Zusammenfassung

Chain-of-Thought (CoT) Prompting ermöglicht komplexes Denken in großen Sprachmodellen (LLMs), einschließlich Anwendungen im Bereich der Informationsbeschaffung (Information Retrieval, IR). Es führt jedoch häufig zu Überdenken, bei dem Modelle übermäßig lange und semantisch redundante Spuren erzeugen, die wenig bis keinen Nutzen bieten. Wir identifizieren zwei zentrale Herausforderungen in der IR: redundante Trajektorien, die ähnliche Zustände erneut durchlaufen, und fehlgeleitetes Denken, das von der Benutzerabsicht abweicht. Um diese Probleme zu lösen, schlagen wir State Machine Reasoning (SMR) vor, ein transitionsbasiertes Denkframework, das aus diskreten Aktionen (Refine, Rerank, Stop) besteht und frühzeitiges Stoppen sowie fein abgestimmte Kontrolle unterstützt. Experimente mit den Benchmarks BEIR und BRIGHT zeigen, dass SMR die Retrieval-Leistung (nDCG@10) um 3,4 % verbessert und gleichzeitig die Token-Nutzung um 74,4 % reduziert. Es generalisiert über verschiedene LLMs und Retrieval-Systeme hinweg, ohne aufgabenbezogene Anpassungen zu erfordern, und bietet somit eine praktische Alternative zum konventionellen CoT-Denken. Der Code und weitere Details sind unter https://github.com/ldilab/SMR verfügbar.
English
Chain-of-Thought (CoT) prompting enables complex reasoning in large language models (LLMs), including applications in information retrieval (IR). However, it often leads to overthinking, where models produce excessively long and semantically redundant traces with little or no benefit. We identify two key challenges in IR: redundant trajectories that revisit similar states and misguided reasoning that diverges from user intent. To address these, we propose State Machine Reasoning (SMR), a transition-based reasoning framework composed of discrete actions (Refine, Rerank, Stop) that support early stopping and fine-grained control. Experiments on the BEIR and BRIGHT benchmarks show that SMR improves retrieval performance (nDCG@10) by 3.4% while reducing token usage by 74.4%. It generalizes across LLMs and retrievers without requiring task-specific tuning, offering a practical alternative to conventional CoT reasoning. The code and details are available at https://github.com/ldilab/SMR.
PDF132June 3, 2025