„Was machst du gerade?“: Auswirkungen von Zwischenfeedback durch agentive LLM-Fahrassistenten während mehrstufiger Verarbeitungsprozesse
"What Are You Doing?": Effects of Intermediate Feedback from Agentic LLM In-Car Assistants During Multi-Step Processing
February 17, 2026
papers.authors: Johannes Kirmayr, Raphael Wennmacher, Khanh Huynh, Lukas Stappen, Elisabeth André, Florian Alt
cs.AI
papers.abstract
Agentische KI-Assistenten, die eigenständig mehrstufige Aufgaben ausführen, werfen offene Fragen für die Benutzererfahrung auf: Wie sollten solche Systeme Fortschritt und Schlussfolgerungen während längerer Operationen kommunizieren, insbesondere in aufmerksamkeitskritischen Kontexten wie dem Fahren? Wir untersuchen das Timing und die Ausführlichkeit von Rückmeldungen bei agentischen, LLM-basierten Sprachassistenten im Auto durch eine kontrollierte Mixed-Methods-Studie (N=45), die Feedback zu geplanten Schritten und Zwischenergebnissen mit einem stillen Betrieb und nur abschließender Antwort vergleicht. Mithilfe eines Dual-Task-Paradigmas mit einem Sprachassistenten im Auto fanden wir heraus, dass Zwischenfeedback die wahrgenommene Geschwindigkeit, das Vertrauen und die Benutzererfahrung signifikant verbesserte und gleichzeitig die Aufgabenlast verringerte – Effekte, die über verschiedene Aufgabenkomplexitäten und Interaktionskontexte hinweg bestanden. Interviews zeigten weiterhin eine Benutzerpräferenz für einen adaptiven Ansatz: hohe anfängliche Transparenz zur Vertrauensbildung, gefolgt von einer progressiv abnehmenden Ausführlichkeit, sobald sich Systeme als zuverlässig erweisen, mit Anpassungen basierend auf der Bedeutung der Aufgabe und dem situativen Kontext. Wir übertragen unsere empirischen Erkenntnisse in Designimplikationen für das Timing und die Ausführlichkeit von Rückmeldungen in agentischen Assistenten, um Transparenz und Effizienz in Einklang zu bringen.
English
Agentic AI assistants that autonomously perform multi-step tasks raise open questions for user experience: how should such systems communicate progress and reasoning during extended operations, especially in attention-critical contexts such as driving? We investigate feedback timing and verbosity from agentic LLM-based in-car assistants through a controlled, mixed-methods study (N=45) comparing planned steps and intermediate results feedback against silent operation with final-only response. Using a dual-task paradigm with an in-car voice assistant, we found that intermediate feedback significantly improved perceived speed, trust, and user experience while reducing task load - effects that held across varying task complexities and interaction contexts. Interviews further revealed user preferences for an adaptive approach: high initial transparency to establish trust, followed by progressively reducing verbosity as systems prove reliable, with adjustments based on task stakes and situational context. We translate our empirical findings into design implications for feedback timing and verbosity in agentic assistants, balancing transparency and efficiency.