Wanneer Gebruikers van Gedachten Veranderen: Het Evalueren van Onderbreekbare Agentschappen bij Lange-Termijnnavigatie op het Web
When Users Change Their Mind: Evaluating Interruptible Agents in Long-Horizon Web Navigation
April 1, 2026
Auteurs: Henry Peng Zou, Chunyu Miao, Wei-Chieh Huang, Yankai Chen, Yue Zhou, Hanrong Zhang, Yaozu Wu, Liancheng Fang, Zhengyao Gu, Zhen Zhang, Kening Zheng, Fangxin Wang, Yi Nian, Shanghao Li, Wenzhe Fan, Langzhou He, Weizhi Zhang, Xue Liu, Philip S. Yu
cs.AI
Samenvatting
Naarmate LLM-agenten evolueren van korte, statische probleemoplossing naar de uitvoering van complexe, langetermijntaken in dynamische omgevingen, wordt het vermogen om gebruikersonderbrekingen – zoals het toevoegen van vereisten of het herzien van doelen – tijdens de taakuitvoering een kernvereiste voor realistische inzet. Bestaande benchmarks veronderstellen echter grotendeels ononderbroken agentgedrag of bestuderen onderbrekingen alleen in korte, onbeperkte taaltaken. In dit artikel presenteren we de eerste systematische studie van onderbreekbare agenten in langetermijn, omgevingsgebonden webnavigatietaken, waarbij acties persistente statuswijzigingen veroorzaken. We formaliseren drie realistische onderbrekingstypes, waaronder toevoeging, herziening en intrekking, en introduceren InterruptBench, een benchmark afgeleid van WebArena-Lite die hoogwaardige onderbrekingsscenario's synthetiseert onder strikte semantische beperkingen. Met behulp van een uniform simulatiekader voor onderbrekingen evalueren we zes sterke LLM-backbones in enkel- en meervoudige onderbrekingssettings, waarbij we zowel hun effectiviteit in het aanpassen aan geüpdatete intenties als hun efficiëntie in het herstellen van wijzigingen tijdens de taak analyseren. Onze resultaten tonen aan dat het effectief en efficiënt afhandelen van gebruikersonderbrekingen tijdens langetermijn agenttaken een uitdaging blijft voor krachtige grootschalige LLM's. Code en dataset zijn beschikbaar op https://github.com/HenryPengZou/InterruptBench.
English
As LLM agents transition from short, static problem solving to executing complex, long-horizon tasks in dynamic environments, the ability to handle user interruptions, such as adding requirement or revising goals, during mid-task execution is becoming a core requirement for realistic deployment. However, existing benchmarks largely assume uninterrupted agent behavior or study interruptions only in short, unconstrained language tasks. In this paper, we present the first systematic study of interruptible agents in long-horizon, environmentally grounded web navigation tasks, where actions induce persistent state changes. We formalize three realistic interruption types, including addition, revision, and retraction, and introduce InterruptBench, a benchmark derived from WebArena-Lite that synthesizes high-quality interruption scenarios under strict semantic constraints. Using a unified interruption simulation framework, we evaluate six strong LLM backbones across single- and multi-turn interruption settings, analyzing both their effectiveness in adapting to updated intents and their efficiency in recovering from mid-task changes. Our results show that handling user interruptions effectively and efficiently during long-horizon agentic tasks remains challenging for powerful large-scale LLMs. Code and dataset are available at https://github.com/HenryPengZou/InterruptBench.