Quando os Usuários Mudam de Ideia: Avaliando Agentes Interrompíveis em Navegação Web de Longo Horizonte
When Users Change Their Mind: Evaluating Interruptible Agents in Long-Horizon Web Navigation
April 1, 2026
Autores: Henry Peng Zou, Chunyu Miao, Wei-Chieh Huang, Yankai Chen, Yue Zhou, Hanrong Zhang, Yaozu Wu, Liancheng Fang, Zhengyao Gu, Zhen Zhang, Kening Zheng, Fangxin Wang, Yi Nian, Shanghao Li, Wenzhe Fan, Langzhou He, Weizhi Zhang, Xue Liu, Philip S. Yu
cs.AI
Resumo
À medida que os agentes de LLM transitam da resolução de problemas curtos e estáticos para a execução de tarefas complexas e de longo prazo em ambientes dinâmicos, a capacidade de lidar com interrupções do utilizador, como a adição de requisitos ou a revisão de objetivos, durante a execução de tarefas está a tornar-se um requisito fundamental para uma implantação realista. No entanto, os benchmarks existentes assumem largamente um comportamento do agente ininterrupto ou estudam interrupções apenas em tarefas linguísticas curtas e sem restrições. Neste artigo, apresentamos o primeiro estudo sistemático de agentes interruptíveis em tarefas de navegação web de longo prazo e fundamentadas no ambiente, onde as ações induzem alterações de estado persistentes. Formalizamos três tipos realistas de interrupção, incluindo adição, revisão e retratação, e introduzimos o InterruptBench, um benchmark derivado do WebArena-Lite que sintetiza cenários de interrupção de alta qualidade sob restrições semânticas rigorosas. Utilizando uma estrutura unificada de simulação de interrupções, avaliamos seis modelos base de LLM robustos em configurações de interrupção de conversação única e múltipla, analisando tanto a sua eficácia na adaptação a intenções atualizadas como a sua eficiência na recuperação de alterações a meio da tarefa. Os nossos resultados mostram que lidar com interrupções do utilizador de forma eficaz e eficiente durante tarefas agentivas de longo prazo continua a ser um desafio para modelos de linguagem de grande escala poderosos. O código e o conjunto de dados estão disponíveis em https://github.com/HenryPengZou/InterruptBench.
English
As LLM agents transition from short, static problem solving to executing complex, long-horizon tasks in dynamic environments, the ability to handle user interruptions, such as adding requirement or revising goals, during mid-task execution is becoming a core requirement for realistic deployment. However, existing benchmarks largely assume uninterrupted agent behavior or study interruptions only in short, unconstrained language tasks. In this paper, we present the first systematic study of interruptible agents in long-horizon, environmentally grounded web navigation tasks, where actions induce persistent state changes. We formalize three realistic interruption types, including addition, revision, and retraction, and introduce InterruptBench, a benchmark derived from WebArena-Lite that synthesizes high-quality interruption scenarios under strict semantic constraints. Using a unified interruption simulation framework, we evaluate six strong LLM backbones across single- and multi-turn interruption settings, analyzing both their effectiveness in adapting to updated intents and their efficiency in recovering from mid-task changes. Our results show that handling user interruptions effectively and efficiently during long-horizon agentic tasks remains challenging for powerful large-scale LLMs. Code and dataset are available at https://github.com/HenryPengZou/InterruptBench.