ReIn: Ripristino Conversazionale degli Errori tramite Ragionamento Iniziale
ReIn: Conversational Error Recovery with Reasoning Inception
February 19, 2026
Autori: Takyoung Kim, Jinseok Nam, Chandrayee Basu, Xing Fan, Chengyuan Ma, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür
cs.AI
Abstract
Gli agenti conversazionali alimentati da grandi modelli linguistici (LLM) con integrazione di strumenti raggiungono prestazioni elevate su dataset di dialogo orientati al compito di tipo fisso, ma rimangono vulnerabili a errori imprevisti indotti dall'utente. Piuttosto che concentrarsi sulla prevenzione degli errori, questo lavoro si focalizza sul ripristino dopo un errore, che richiede la diagnosi accurata di contesti dialogici errati e l'esecuzione di piani di recupero appropriati. In presenza di vincoli realistici che impediscono il fine-tuning del modello o la modifica dei prompt a causa di requisiti significativi di costo e tempo, esploriamo se gli agenti possono riprendersi da interazioni contestualmente imperfette e come il loro comportamento possa essere adattato senza alterare i parametri del modello e i prompt. A tal fine, proponiamo Reasoning Inception (ReIn), un metodo di intervento in fase di test che innesta un ragionamento iniziale nel processo decisionale dell'agente. Nello specifico, un modulo di inception esterno identifica errori predefiniti nel contesto del dialogo e genera piani di recupero, che vengono successivamente integrati nel processo di ragionamento interno dell'agente per guidare azioni correttive, senza modificarne i parametri o i prompt di sistema. Valutiamo ReIn simulando sistematicamente scenari di fallimento conversazionale che ostacolano direttamente il completamento con successo degli obiettivi dell'utente: richieste ambigue e non supportate dell'utente. Attraverso diverse combinazioni di modelli di agente e moduli di inception, ReIn migliora sostanzialmente il successo del compito e generalizza a tipi di errore non visti. Inoltre, supera costantemente gli approcci basati sulla modifica esplicita dei prompt, sottolineandone l'utilità come metodo efficiente e in tempo reale. Un'analisi approfondita del suo meccanismo operativo, in particolare in relazione alla gerarchia delle istruzioni, indica che la definizione congiunta di strumenti di recupero con ReIn può rappresentare una strategia sicura ed efficace per migliorare la resilienza degli agenti conversazionali senza modificare i modelli backbone o i prompt di sistema.
English
Conversational agents powered by large language models (LLMs) with tool integration achieve strong performance on fixed task-oriented dialogue datasets but remain vulnerable to unanticipated, user-induced errors. Rather than focusing on error prevention, this work focuses on error recovery, which necessitates the accurate diagnosis of erroneous dialogue contexts and execution of proper recovery plans. Under realistic constraints precluding model fine-tuning or prompt modification due to significant cost and time requirements, we explore whether agents can recover from contextually flawed interactions and how their behavior can be adapted without altering model parameters and prompts. To this end, we propose Reasoning Inception (ReIn), a test-time intervention method that plants an initial reasoning into the agent's decision-making process. Specifically, an external inception module identifies predefined errors within the dialogue context and generates recovery plans, which are subsequently integrated into the agent's internal reasoning process to guide corrective actions, without modifying its parameters or system prompts. We evaluate ReIn by systematically simulating conversational failure scenarios that directly hinder successful completion of user goals: user's ambiguous and unsupported requests. Across diverse combinations of agent models and inception modules, ReIn substantially improves task success and generalizes to unseen error types. Moreover, it consistently outperforms explicit prompt-modification approaches, underscoring its utility as an efficient, on-the-fly method. In-depth analysis of its operational mechanism, particularly in relation to instruction hierarchy, indicates that jointly defining recovery tools with ReIn can serve as a safe and effective strategy for improving the resilience of conversational agents without modifying the backbone models or system prompts.