Quand les utilisateurs changent d'avis : Évaluation d'agents interruptibles dans la navigation web à long terme
When Users Change Their Mind: Evaluating Interruptible Agents in Long-Horizon Web Navigation
April 1, 2026
Auteurs: Henry Peng Zou, Chunyu Miao, Wei-Chieh Huang, Yankai Chen, Yue Zhou, Hanrong Zhang, Yaozu Wu, Liancheng Fang, Zhengyao Gu, Zhen Zhang, Kening Zheng, Fangxin Wang, Yi Nian, Shanghao Li, Wenzhe Fan, Langzhou He, Weizhi Zhang, Xue Liu, Philip S. Yu
cs.AI
Résumé
Alors que les agents de LLM évoluent de la résolution de problèmes courts et statiques vers l'exécution de tâches complexes et à long terme dans des environnements dynamiques, la capacité à gérer les interruptions des utilisateurs, telles que l'ajout d'exigences ou la révision d'objectifs, pendant l'exécution d'une tâche devient une exigence fondamentale pour un déploiement réaliste. Cependant, les benchmarks existants supposent largement un comportement d'agent ininterrompu ou n'étudient les interruptions que dans des tâches linguistiques courtes et non contraintes. Dans cet article, nous présentons la première étude systématique des agents interruptibles dans des tâches de navigation web à long terme et ancrées dans un environnement, où les actions induisent des changements d'état persistants. Nous formalisons trois types d'interruption réalistes, incluant l'ajout, la révision et la rétractation, et introduisons InterruptBench, un benchmark dérivé de WebArena-Lite qui synthétise des scénarios d'interruption de haute qualité sous de strictes contraintes sémantiques. En utilisant un cadre unifié de simulation d'interruption, nous évaluons six modèles de LLM robustes dans des contextes d'interruption à tour unique et multi-tours, analysant à la fois leur efficacité à s'adapter aux intentions mises à jour et leur efficience à se rétablir après des changements en cours de tâche. Nos résultats montrent que gérer les interruptions des utilisateurs de manière efficace et efficiente pendant les tâches agentielles à long terme reste un défi pour les modèles de langage à grande échelle puissants. Le code et le jeu de données sont disponibles à l'adresse https://github.com/HenryPengZou/InterruptBench.
English
As LLM agents transition from short, static problem solving to executing complex, long-horizon tasks in dynamic environments, the ability to handle user interruptions, such as adding requirement or revising goals, during mid-task execution is becoming a core requirement for realistic deployment. However, existing benchmarks largely assume uninterrupted agent behavior or study interruptions only in short, unconstrained language tasks. In this paper, we present the first systematic study of interruptible agents in long-horizon, environmentally grounded web navigation tasks, where actions induce persistent state changes. We formalize three realistic interruption types, including addition, revision, and retraction, and introduce InterruptBench, a benchmark derived from WebArena-Lite that synthesizes high-quality interruption scenarios under strict semantic constraints. Using a unified interruption simulation framework, we evaluate six strong LLM backbones across single- and multi-turn interruption settings, analyzing both their effectiveness in adapting to updated intents and their efficiency in recovering from mid-task changes. Our results show that handling user interruptions effectively and efficiently during long-horizon agentic tasks remains challenging for powerful large-scale LLMs. Code and dataset are available at https://github.com/HenryPengZou/InterruptBench.