ChatPaper.aiChatPaper

От токена к действию: рассуждения на основе конечных автоматов для снижения чрезмерного анализа в информационном поиске

From Token to Action: State Machine Reasoning to Mitigate Overthinking in Information Retrieval

May 29, 2025
Авторы: Dohyeon Lee, Yeonseok Jeong, Seung-won Hwang
cs.AI

Аннотация

Метод Chain-of-Thought (CoT) позволяет крупным языковым моделям (LLM) выполнять сложные рассуждения, включая задачи информационного поиска (IR). Однако он часто приводит к "переосмыслению", когда модели генерируют избыточно длинные и семантически повторяющиеся цепочки рассуждений с минимальной или нулевой пользой. Мы выделяем две ключевые проблемы в IR: избыточные траектории, которые возвращаются к схожим состояниям, и ошибочные рассуждения, отклоняющиеся от намерений пользователя. Для решения этих проблем мы предлагаем State Machine Reasoning (SMR) — основанный на переходах фреймворк для рассуждений, состоящий из дискретных действий (Refine, Rerank, Stop), которые поддерживают раннюю остановку и детализированный контроль. Эксперименты на наборах данных BEIR и BRIGHT показывают, что SMR улучшает производительность поиска (nDCG@10) на 3,4%, одновременно сокращая использование токенов на 74,4%. Метод обобщается для различных LLM и систем поиска без необходимости специфической настройки для конкретных задач, предлагая практическую альтернативу традиционному CoT-рассуждению. Код и подробности доступны по адресу https://github.com/ldilab/SMR.
English
Chain-of-Thought (CoT) prompting enables complex reasoning in large language models (LLMs), including applications in information retrieval (IR). However, it often leads to overthinking, where models produce excessively long and semantically redundant traces with little or no benefit. We identify two key challenges in IR: redundant trajectories that revisit similar states and misguided reasoning that diverges from user intent. To address these, we propose State Machine Reasoning (SMR), a transition-based reasoning framework composed of discrete actions (Refine, Rerank, Stop) that support early stopping and fine-grained control. Experiments on the BEIR and BRIGHT benchmarks show that SMR improves retrieval performance (nDCG@10) by 3.4% while reducing token usage by 74.4%. It generalizes across LLMs and retrievers without requiring task-specific tuning, offering a practical alternative to conventional CoT reasoning. The code and details are available at https://github.com/ldilab/SMR.
PDF132June 3, 2025