ChatPaper.aiChatPaper

ReIn : Récupération d'erreurs conversationnelles par raisonnement inception

ReIn: Conversational Error Recovery with Reasoning Inception

February 19, 2026
papers.authors: Takyoung Kim, Jinseok Nam, Chandrayee Basu, Xing Fan, Chengyuan Ma, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür
cs.AI

papers.abstract

Les agents conversationnels alimentés par de grands modèles de langage (LLM) avec intégration d'outils obtiennent des performances solides sur des ensembles de données de dialogue orienté tâche fixes, mais restent vulnérables aux erreurs imprévues induites par l'utilisateur. Plutôt que de se concentrer sur la prévention des erreurs, ce travail se concentre sur la récupération après erreur, ce qui nécessite un diagnostic précis des contextes de dialogue erronés et l'exécution de plans de récupération appropriés. Sous des contraintes réalistes empêchant le fine-tuning du modèle ou la modification des prompts en raison de coûts et de délais importants, nous explorons si les agents peuvent récupérer après des interactions contextuellement défectueuses et comment leur comportement peut être adapté sans modifier les paramètres du modèle ni les prompts. À cette fin, nous proposons Reasoning Inception (ReIn), une méthode d'intervention au moment du test qui intègre un raisonnement initial dans le processus décisionnel de l'agent. Concrètement, un module d'inception externe identifie des erreurs prédéfinies dans le contexte du dialogue et génère des plans de récupération, qui sont ensuite intégrés au processus de raisonnement interne de l'agent pour guider les actions correctives, sans modifier ses paramètres ou ses prompts système. Nous évaluons ReIn en simulant systématiquement des scénarios d'échec conversationnel qui entravent directement la réalisation des objectifs de l'utilisateur : les requêtes ambiguës et non prises en charge de l'utilisateur. Sur diverses combinaisons de modèles d'agents et de modules d'inception, ReIn améliore considérablement le succès des tâches et se généralise à des types d'erreurs non vus. De plus, il surpasse constamment les approches explicites de modification des prompts, soulignant son utilité comme méthode efficace et immédiate. Une analyse approfondie de son mécanisme opérationnel, notamment en relation avec la hiérarchie des instructions, indique que la définition conjointe d'outils de récupération avec ReIn peut constituer une stratégie sûre et efficace pour améliorer la résilience des agents conversationnels sans modifier les modèles de base ni les prompts système.
English
Conversational agents powered by large language models (LLMs) with tool integration achieve strong performance on fixed task-oriented dialogue datasets but remain vulnerable to unanticipated, user-induced errors. Rather than focusing on error prevention, this work focuses on error recovery, which necessitates the accurate diagnosis of erroneous dialogue contexts and execution of proper recovery plans. Under realistic constraints precluding model fine-tuning or prompt modification due to significant cost and time requirements, we explore whether agents can recover from contextually flawed interactions and how their behavior can be adapted without altering model parameters and prompts. To this end, we propose Reasoning Inception (ReIn), a test-time intervention method that plants an initial reasoning into the agent's decision-making process. Specifically, an external inception module identifies predefined errors within the dialogue context and generates recovery plans, which are subsequently integrated into the agent's internal reasoning process to guide corrective actions, without modifying its parameters or system prompts. We evaluate ReIn by systematically simulating conversational failure scenarios that directly hinder successful completion of user goals: user's ambiguous and unsupported requests. Across diverse combinations of agent models and inception modules, ReIn substantially improves task success and generalizes to unseen error types. Moreover, it consistently outperforms explicit prompt-modification approaches, underscoring its utility as an efficient, on-the-fly method. In-depth analysis of its operational mechanism, particularly in relation to instruction hierarchy, indicates that jointly defining recovery tools with ReIn can serve as a safe and effective strategy for improving the resilience of conversational agents without modifying the backbone models or system prompts.
PDF11February 24, 2026