ReIn: Recuperación de Errores Conversacionales mediante Razonamiento Inicial
ReIn: Conversational Error Recovery with Reasoning Inception
February 19, 2026
Autores: Takyoung Kim, Jinseok Nam, Chandrayee Basu, Xing Fan, Chengyuan Ma, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür
cs.AI
Resumen
Los agentes conversacionales impulsados por grandes modelos de lenguaje (LLM) con integración de herramientas logran un alto rendimiento en conjuntos de datos de diálogo orientados a tareas fijas, pero siguen siendo vulnerables a errores imprevistos inducidos por el usuario. En lugar de centrarse en la prevención de errores, este trabajo se enfoca en la recuperación de errores, lo que requiere un diagnóstico preciso de contextos de diálogo erróneos y la ejecución de planes de recuperación adecuados. Bajo restricciones realistas que impiden el ajuste fino del modelo o la modificación de *prompts* debido a los significativos requisitos de costo y tiempo, exploramos si los agentes pueden recuperarse de interacciones contextualmente defectuosas y cómo su comportamiento puede adaptarse sin alterar los parámetros del modelo ni los *prompts*. Con este fin, proponemos *Reasoning Inception* (ReIn), un método de intervención en tiempo de prueba que implanta un razonamiento inicial en el proceso de toma de decisiones del agente. Específicamente, un módulo de inicio externo identifica errores predefinidos en el contexto del diálogo y genera planes de recuperación, que posteriormente se integran en el proceso de razonamiento interno del agente para guiar acciones correctivas, sin modificar sus parámetros o *prompts* del sistema. Evaluamos ReIn simulando sistemáticamente escenarios de fallo conversacional que dificultan directamente la finalización exitosa de los objetivos del usuario: solicitudes ambiguas y no soportadas por parte del usuario. En diversas combinaciones de modelos de agentes y módulos de inicio, ReIn mejora sustancialmente el éxito de la tarea y generaliza a tipos de errores no vistos. Además, supera consistentemente a los enfoques de modificación explícita de *prompts*, subrayando su utilidad como un método eficiente y en tiempo real. Un análisis en profundidad de su mecanismo operativo, particularmente en relación con la jerarquía de instrucciones, indica que definir conjuntamente herramientas de recuperación con ReIn puede servir como una estrategia segura y efectiva para mejorar la resiliencia de los agentes conversacionales sin modificar los modelos base o los *prompts* del sistema.
English
Conversational agents powered by large language models (LLMs) with tool integration achieve strong performance on fixed task-oriented dialogue datasets but remain vulnerable to unanticipated, user-induced errors. Rather than focusing on error prevention, this work focuses on error recovery, which necessitates the accurate diagnosis of erroneous dialogue contexts and execution of proper recovery plans. Under realistic constraints precluding model fine-tuning or prompt modification due to significant cost and time requirements, we explore whether agents can recover from contextually flawed interactions and how their behavior can be adapted without altering model parameters and prompts. To this end, we propose Reasoning Inception (ReIn), a test-time intervention method that plants an initial reasoning into the agent's decision-making process. Specifically, an external inception module identifies predefined errors within the dialogue context and generates recovery plans, which are subsequently integrated into the agent's internal reasoning process to guide corrective actions, without modifying its parameters or system prompts. We evaluate ReIn by systematically simulating conversational failure scenarios that directly hinder successful completion of user goals: user's ambiguous and unsupported requests. Across diverse combinations of agent models and inception modules, ReIn substantially improves task success and generalizes to unseen error types. Moreover, it consistently outperforms explicit prompt-modification approaches, underscoring its utility as an efficient, on-the-fly method. In-depth analysis of its operational mechanism, particularly in relation to instruction hierarchy, indicates that jointly defining recovery tools with ReIn can serve as a safe and effective strategy for improving the resilience of conversational agents without modifying the backbone models or system prompts.