ChatPaper.aiChatPaper

ReIn: Recuperação de Erros Conversacionais com Raciocínio Inicial

ReIn: Conversational Error Recovery with Reasoning Inception

February 19, 2026
Autores: Takyoung Kim, Jinseok Nam, Chandrayee Basu, Xing Fan, Chengyuan Ma, Heng Ji, Gokhan Tur, Dilek Hakkani-Tür
cs.AI

Resumo

Agentes conversacionais alimentados por modelos de linguagem de grande escala (LLMs) com integração de ferramentas alcançam alto desempenho em conjuntos de dados de diálogo orientados a tarefas fixas, mas permanecem vulneráveis a erros não antecipados induzidos pelo utilizador. Em vez de se concentrar na prevenção de erros, este trabalho foca-se na recuperação de erros, o que exige o diagnóstico preciso de contextos de diálogo erróneos e a execução de planos de recuperação adequados. Sob restrições realistas que impedem o *fine-tuning* do modelo ou a modificação de *prompts* devido a requisitos significativos de custo e tempo, exploramos se os agentes podem recuperar de interações contextualmente falhas e como o seu comportamento pode ser adaptado sem alterar os parâmetros do modelo e os *prompts*. Para tal, propomos o *Reasoning Inception* (ReIn), um método de intervenção em tempo de teste que insere um raciocínio inicial no processo de tomada de decisão do agente. Especificamente, um módulo de iniciação externo identifica erros predefinidos no contexto do diálogo e gera planos de recuperação, que são subsequentemente integrados no processo de raciocínio interno do agente para orientar ações corretivas, sem modificar os seus parâmetros ou *prompts* de sistema. Avaliamos o ReIn simulando sistematicamente cenários de falha conversacional que impedem diretamente a conclusão bem-sucedida dos objetivos do utilizador: pedidos ambíguos e não suportados do utilizador. Através de diversas combinações de modelos de agente e módulos de iniciação, o ReIn melhora substancialmente o sucesso da tarefa e generaliza para tipos de erro não observados. Além disso, supera consistentemente abordagens de modificação explícita de *prompts*, salientando a sua utilidade como um método eficiente e em tempo real. Uma análise aprofundada do seu mecanismo operacional, particularmente em relação à hierarquia de instruções, indica que a definição conjunta de ferramentas de recuperação com o ReIn pode servir como uma estratégia segura e eficaz para melhorar a resiliência dos agentes conversacionais sem modificar os modelos de base ou os *prompts* de sistema.
English
Conversational agents powered by large language models (LLMs) with tool integration achieve strong performance on fixed task-oriented dialogue datasets but remain vulnerable to unanticipated, user-induced errors. Rather than focusing on error prevention, this work focuses on error recovery, which necessitates the accurate diagnosis of erroneous dialogue contexts and execution of proper recovery plans. Under realistic constraints precluding model fine-tuning or prompt modification due to significant cost and time requirements, we explore whether agents can recover from contextually flawed interactions and how their behavior can be adapted without altering model parameters and prompts. To this end, we propose Reasoning Inception (ReIn), a test-time intervention method that plants an initial reasoning into the agent's decision-making process. Specifically, an external inception module identifies predefined errors within the dialogue context and generates recovery plans, which are subsequently integrated into the agent's internal reasoning process to guide corrective actions, without modifying its parameters or system prompts. We evaluate ReIn by systematically simulating conversational failure scenarios that directly hinder successful completion of user goals: user's ambiguous and unsupported requests. Across diverse combinations of agent models and inception modules, ReIn substantially improves task success and generalizes to unseen error types. Moreover, it consistently outperforms explicit prompt-modification approaches, underscoring its utility as an efficient, on-the-fly method. In-depth analysis of its operational mechanism, particularly in relation to instruction hierarchy, indicates that jointly defining recovery tools with ReIn can serve as a safe and effective strategy for improving the resilience of conversational agents without modifying the backbone models or system prompts.
PDF11February 24, 2026