ChatPaper.aiChatPaper

ReIn: 推論による会話エラー回復

ReIn: Conversational Error Recovery with Reasoning Inception

February 19, 2026
著者: Takyoung Kim, Jinseok Nam, Chandrayee Basu, Xing Fan, Chengyuan Ma, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür
cs.AI

要旨

ツール統合を備えた大規模言語モデル(LLM)を中核とする対話エージェントは、固定されたタスク指向対話データセットにおいて高い性能を達成するが、予期せぬユーザー起因のエラーに対して依然として脆弱である。本論文はエラー予防ではなく、誤った対話コンテキストの正確な診断と適切な回復計画の実行を必要とする**エラー回復**に焦点を当てる。モデルのファインチューニングやプロンプト修正には多大なコストと時間がかかるという現実的な制約の下で、エージェントが文脈的に欠陥のある対話から回復できるか、またモデルパラメータやプロンプトを変更せずにその挙動を適応させられるかを探求する。 この目的のために、我々は**Reasoning Inception (ReIn)** を提案する。これは、エージェントの意思決定プロセスに初期推論を組み込むテスト時介入手法である。具体的には、外部の inception モジュールが対話コンテキスト内の事前定義されたエラーを特定し、回復計画を生成する。これらはその後、エージェントのパラメータやシステムプロンプトを変更することなく、修正行動を導くためにその内部推論プロセスに統合される。 ReIn を評価するため、ユーザーの目標達成を直接妨げる対話失敗シナリオ(ユーザーの曖昧な要求および未サポートの要求)を系統的にシミュレートする。多様なエージェントモデルと inception モジュールの組み合わせにおいて、ReIn はタスク成功率を大幅に改善し、未見のエラータイプへも一般化した。さらに、明示的なプロンプト修正手法を一貫して上回り、効率的なオンザフライ手法としての有用性が強調される。その動作メカニズム、特に命令階層との関係に関する詳細な分析は、ReIn と共に回復ツールを共同定義することが、基盤モデルやシステムプロンプトを変更することなく対話エージェントのレジリエンスを向上させる安全かつ効果的な戦略となり得ることを示唆している。
English
Conversational agents powered by large language models (LLMs) with tool integration achieve strong performance on fixed task-oriented dialogue datasets but remain vulnerable to unanticipated, user-induced errors. Rather than focusing on error prevention, this work focuses on error recovery, which necessitates the accurate diagnosis of erroneous dialogue contexts and execution of proper recovery plans. Under realistic constraints precluding model fine-tuning or prompt modification due to significant cost and time requirements, we explore whether agents can recover from contextually flawed interactions and how their behavior can be adapted without altering model parameters and prompts. To this end, we propose Reasoning Inception (ReIn), a test-time intervention method that plants an initial reasoning into the agent's decision-making process. Specifically, an external inception module identifies predefined errors within the dialogue context and generates recovery plans, which are subsequently integrated into the agent's internal reasoning process to guide corrective actions, without modifying its parameters or system prompts. We evaluate ReIn by systematically simulating conversational failure scenarios that directly hinder successful completion of user goals: user's ambiguous and unsupported requests. Across diverse combinations of agent models and inception modules, ReIn substantially improves task success and generalizes to unseen error types. Moreover, it consistently outperforms explicit prompt-modification approaches, underscoring its utility as an efficient, on-the-fly method. In-depth analysis of its operational mechanism, particularly in relation to instruction hierarchy, indicates that jointly defining recovery tools with ReIn can serve as a safe and effective strategy for improving the resilience of conversational agents without modifying the backbone models or system prompts.
PDF11February 24, 2026