ReIn: Conversatief Foutherstel met Redeneer-Inceptie
ReIn: Conversational Error Recovery with Reasoning Inception
February 19, 2026
Auteurs: Takyoung Kim, Jinseok Nam, Chandrayee Basu, Xing Fan, Chengyuan Ma, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür
cs.AI
Samenvatting
Conversatie-agents aangedreven door grote taalmodellen (LLM's) met toolintegratie behalen sterke prestaties op vaste taakgerichte dialoogdatasets, maar blijven kwetsbaar voor onverwachte, door de gebruiker veroorzaakte fouten. In plaats van zich te richten op foutpreventie, richt dit werk zich op foutherstel, wat een accurate diagnose van foutieve dialoogcontexten en de uitvoering van passende herstelplannen vereist. Onder realistische beperkingen die model-finetuning of promptaanpassing uitsluiten vanwege aanzienlijke kosten- en tijdsvereisten, onderzoeken we of agents kunnen herstellen van contextueel gebrekkige interacties en hoe hun gedrag kan worden aangepast zonder modelparameters en prompts te wijzigen. Hiertoe stellen we Reasoning Inception (ReIn) voor, een interventiemethode tijdens het testen die een initiële redenering in het besluitvormingsproces van de agent plant. Specifiek identificeert een externe inception-module vooraf gedefinieerde fouten binnen de dialoogcontext en genereert herstelplannen, die vervolgens worden geïntegreerd in het interne redeneerproces van de agent om corrigerende acties te sturen, zonder de parameters of systeemprompts aan te passen. We evalueren ReIn door systematisch conversatiefaalscenario's te simuleren die de succesvolle voltooiing van gebruikersdoelen direct belemmeren: dubbelzinnige en niet-ondersteunde verzoeken van gebruikers. Over diverse combinaties van agentmodellen en inception-modules verbetert ReIn de taaksucces aanzienlijk en generaliseert het naar onbekende fouttypes. Bovendien presteert het consistent beter dan expliciete promptaanpassingsbenaderingen, wat het nut ervan als een efficiënte, real-time methode onderstreept. Een diepgaande analyse van het werkingsmechanisme, met name in relatie tot instructiehierarchie, geeft aan dat het gezamenlijk definiëren van hersteltools met ReIn kan dienen als een veilige en effectieve strategie om de veerkracht van conversatie-agents te verbeteren zonder de backbone-modellen of systeemprompts aan te passen.
English
Conversational agents powered by large language models (LLMs) with tool integration achieve strong performance on fixed task-oriented dialogue datasets but remain vulnerable to unanticipated, user-induced errors. Rather than focusing on error prevention, this work focuses on error recovery, which necessitates the accurate diagnosis of erroneous dialogue contexts and execution of proper recovery plans. Under realistic constraints precluding model fine-tuning or prompt modification due to significant cost and time requirements, we explore whether agents can recover from contextually flawed interactions and how their behavior can be adapted without altering model parameters and prompts. To this end, we propose Reasoning Inception (ReIn), a test-time intervention method that plants an initial reasoning into the agent's decision-making process. Specifically, an external inception module identifies predefined errors within the dialogue context and generates recovery plans, which are subsequently integrated into the agent's internal reasoning process to guide corrective actions, without modifying its parameters or system prompts. We evaluate ReIn by systematically simulating conversational failure scenarios that directly hinder successful completion of user goals: user's ambiguous and unsupported requests. Across diverse combinations of agent models and inception modules, ReIn substantially improves task success and generalizes to unseen error types. Moreover, it consistently outperforms explicit prompt-modification approaches, underscoring its utility as an efficient, on-the-fly method. In-depth analysis of its operational mechanism, particularly in relation to instruction hierarchy, indicates that jointly defining recovery tools with ReIn can serve as a safe and effective strategy for improving the resilience of conversational agents without modifying the backbone models or system prompts.