ChatPaper.aiChatPaper

ReIn: Восстановление после ошибок в диалоге с помощью рассуждающего инициирования

ReIn: Conversational Error Recovery with Reasoning Inception

February 19, 2026
Авторы: Takyoung Kim, Jinseok Nam, Chandrayee Basu, Xing Fan, Chengyuan Ma, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür
cs.AI

Аннотация

Диалоговые агенты, основанные на больших языковых моделях (LLM) с интеграцией инструментов, демонстрируют высокую производительность на статичных наборах данных, ориентированных на задачи, но остаются уязвимыми к непредвиденным ошибкам, вызванным пользователем. Вместо того чтобы сосредотачиваться на предотвращении ошибок, данная работа сфокусирована на восстановлении после ошибок, что требует точной диагностики ошибочных контекстов диалога и выполнения корректных планов восстановления. В условиях реалистичных ограничений, исключающих тонкую настройку модели или изменение промптов из-за значительных затрат и требований ко времени, мы исследуем, могут ли агенты восстанавливаться после контекстуально ошибочных взаимодействий и как их поведение можно адаптировать без изменения параметров модели и промптов. Для этого мы предлагаем Reasoning Inception (ReIn) — метод вмешательства во время выполнения, который внедряет первоначальные рассуждения в процесс принятия решений агентом. Конкретно, внешний модуль инициации идентифицирует предопределенные ошибки в контексте диалога и генерирует планы восстановления, которые затем интегрируются во внутренний процесс рассуждений агента для направления корректирующих действий, без изменения его параметров или системных промптов. Мы оцениваем ReIn, систематически моделируя сценарии сбоев в диалоге, которые напрямую препятствуют успешному завершению целей пользователя: неоднозначные и неподдерживаемые запросы пользователя. При различных комбинациях моделей агентов и модулей инициации ReIn существенно повышает успешность выполнения задач и обобщается на неизвестные типы ошибок. Более того, он стабильно превосходит подходы с явным изменением промптов, подчеркивая свою полезность в качестве эффективного метода в реальном времени. Глубокий анализ его механизма работы, особенно в отношении иерархии инструкций, указывает на то, что совместное определение инструментов восстановления с ReIn может служить безопасной и эффективной стратегией для повышения устойчивости диалоговых агентов без изменения базовых моделей или системных промптов.
English
Conversational agents powered by large language models (LLMs) with tool integration achieve strong performance on fixed task-oriented dialogue datasets but remain vulnerable to unanticipated, user-induced errors. Rather than focusing on error prevention, this work focuses on error recovery, which necessitates the accurate diagnosis of erroneous dialogue contexts and execution of proper recovery plans. Under realistic constraints precluding model fine-tuning or prompt modification due to significant cost and time requirements, we explore whether agents can recover from contextually flawed interactions and how their behavior can be adapted without altering model parameters and prompts. To this end, we propose Reasoning Inception (ReIn), a test-time intervention method that plants an initial reasoning into the agent's decision-making process. Specifically, an external inception module identifies predefined errors within the dialogue context and generates recovery plans, which are subsequently integrated into the agent's internal reasoning process to guide corrective actions, without modifying its parameters or system prompts. We evaluate ReIn by systematically simulating conversational failure scenarios that directly hinder successful completion of user goals: user's ambiguous and unsupported requests. Across diverse combinations of agent models and inception modules, ReIn substantially improves task success and generalizes to unseen error types. Moreover, it consistently outperforms explicit prompt-modification approaches, underscoring its utility as an efficient, on-the-fly method. In-depth analysis of its operational mechanism, particularly in relation to instruction hierarchy, indicates that jointly defining recovery tools with ReIn can serve as a safe and effective strategy for improving the resilience of conversational agents without modifying the backbone models or system prompts.
PDF11February 24, 2026