ChatPaper.aiChatPaper

Cuando los usuarios cambian de opinión: Evaluación de agentes interrumpibles en navegación web de largo alcance

When Users Change Their Mind: Evaluating Interruptible Agents in Long-Horizon Web Navigation

April 1, 2026
Autores: Henry Peng Zou, Chunyu Miao, Wei-Chieh Huang, Yankai Chen, Yue Zhou, Hanrong Zhang, Yaozu Wu, Liancheng Fang, Zhengyao Gu, Zhen Zhang, Kening Zheng, Fangxin Wang, Yi Nian, Shanghao Li, Wenzhe Fan, Langzhou He, Weizhi Zhang, Xue Liu, Philip S. Yu
cs.AI

Resumen

A medida que los agentes de LLM evolucionan desde la resolución de problemas estáticos y de corto plazo hacia la ejecución de tareas complejas y de horizonte prolongado en entornos dinámicos, la capacidad de manejar interrupciones del usuario —como agregar requisitos o revisar objetivos— durante la ejecución de una tarea se está convirtiendo en un requisito fundamental para un despliegue realista. Sin embargo, los benchmarks existentes asumen en gran medida un comportamiento del agente sin interrupciones o estudian las interrupciones únicamente en tareas lingüísticas breves y sin restricciones. En este artículo, presentamos el primer estudio sistemático de agentes interrumpibles en tareas de navegación web de horizonte prolongado y con base ambiental, donde las acciones inducen cambios de estado persistentes. Formalizamos tres tipos realistas de interrupción: adición, revisión y retractación, e introducimos InterruptBench, un benchmark derivado de WebArena-Lite que sintetiza escenarios de interrupción de alta calidad bajo estrictas restricciones semánticas. Utilizando un marco unificado de simulación de interrupciones, evaluamos seis modelos base de LLM sólidos en configuraciones de interrupción de turno único y múltiple, analizando tanto su eficacia para adaptarse a intenciones actualizadas como su eficiencia para recuperarse de cambios a mitad de la tarea. Nuestros resultados demuestran que manejar interrupciones del usuario de manera efectiva y eficiente durante tareas agentales de horizonte prolongado sigue siendo un desafío para los modelos de lenguaje a gran escala más potentes. El código y el conjunto de datos están disponibles en https://github.com/HenryPengZou/InterruptBench.
English
As LLM agents transition from short, static problem solving to executing complex, long-horizon tasks in dynamic environments, the ability to handle user interruptions, such as adding requirement or revising goals, during mid-task execution is becoming a core requirement for realistic deployment. However, existing benchmarks largely assume uninterrupted agent behavior or study interruptions only in short, unconstrained language tasks. In this paper, we present the first systematic study of interruptible agents in long-horizon, environmentally grounded web navigation tasks, where actions induce persistent state changes. We formalize three realistic interruption types, including addition, revision, and retraction, and introduce InterruptBench, a benchmark derived from WebArena-Lite that synthesizes high-quality interruption scenarios under strict semantic constraints. Using a unified interruption simulation framework, we evaluate six strong LLM backbones across single- and multi-turn interruption settings, analyzing both their effectiveness in adapting to updated intents and their efficiency in recovering from mid-task changes. Our results show that handling user interruptions effectively and efficiently during long-horizon agentic tasks remains challenging for powerful large-scale LLMs. Code and dataset are available at https://github.com/HenryPengZou/InterruptBench.
PDF11April 3, 2026