ChatPaper.aiChatPaper

Wenn Nutzer ihre Meinung ändern: Die Bewertung unterbrechbarer Agenten bei langfristiger Webnavigation

When Users Change Their Mind: Evaluating Interruptible Agents in Long-Horizon Web Navigation

April 1, 2026
Autoren: Henry Peng Zou, Chunyu Miao, Wei-Chieh Huang, Yankai Chen, Yue Zhou, Hanrong Zhang, Yaozu Wu, Liancheng Fang, Zhengyao Gu, Zhen Zhang, Kening Zheng, Fangxin Wang, Yi Nian, Shanghao Li, Wenzhe Fan, Langzhou He, Weizhi Zhang, Xue Liu, Philip S. Yu
cs.AI

Zusammenfassung

Während LLM-Agenten von kurzer, statischer Problemlösung zur Ausführung komplexer, langfristiger Aufgaben in dynamischen Umgebungen übergehen, wird die Fähigkeit, Benutzerunterbrechungen – wie das Hinzufügen von Anforderungen oder das Überarbeiten von Zielen – während der Aufgabenausführung zu bewältigen, zu einer Kernanforderung für den realistischen Einsatz. Bisherige Benchmarks gehen jedoch weitgehend von ununterbrochenem Agentenverhalten aus oder untersuchen Unterbrechungen nur bei kurzen, ungebundenen Sprachaufgaben. In diesem Artikel präsentieren wir die erste systematische Untersuchung von unterbrechbaren Agenten in langfristigen, umgebungsbasierten Web-Navigationsaufgaben, bei denen Aktionen persistente Zustandsänderungen bewirken. Wir formalisieren drei realistische Unterbrechungstypen – Ergänzung, Revision und Rücknahme – und stellen InterruptBench vor, einen Benchmark, der aus WebArena-Lite abgeleitet ist und hochwertige Unterbrechungsszenarien unter strengen semantischen Randbedingungen synthetisiert. Mithilfe eines einheitlichen Unterbrechungssimulationsframeworks evaluieren wir sechs leistungsstarke LLM-Backbones in Einzel- und Mehrfachunterbrechungsszenarien und analysieren sowohl ihre Wirksamkeit bei der Anpassung an aktualisierte Intentionen als auch ihre Effizienz bei der Erholung von Änderungen während der Aufgabenausführung. Unsere Ergebnisse zeigen, dass die effektive und effiziente Bewältigung von Benutzerunterbrechungen während langfristiger agentenbasierter Aufgaben für leistungsfähige großskalige LLMs nach wie vor eine Herausforderung darstellt. Code und Datensatz sind verfügbar unter https://github.com/HenryPengZou/InterruptBench.
English
As LLM agents transition from short, static problem solving to executing complex, long-horizon tasks in dynamic environments, the ability to handle user interruptions, such as adding requirement or revising goals, during mid-task execution is becoming a core requirement for realistic deployment. However, existing benchmarks largely assume uninterrupted agent behavior or study interruptions only in short, unconstrained language tasks. In this paper, we present the first systematic study of interruptible agents in long-horizon, environmentally grounded web navigation tasks, where actions induce persistent state changes. We formalize three realistic interruption types, including addition, revision, and retraction, and introduce InterruptBench, a benchmark derived from WebArena-Lite that synthesizes high-quality interruption scenarios under strict semantic constraints. Using a unified interruption simulation framework, we evaluate six strong LLM backbones across single- and multi-turn interruption settings, analyzing both their effectiveness in adapting to updated intents and their efficiency in recovering from mid-task changes. Our results show that handling user interruptions effectively and efficiently during long-horizon agentic tasks remains challenging for powerful large-scale LLMs. Code and dataset are available at https://github.com/HenryPengZou/InterruptBench.
PDF11April 3, 2026