"Wat Bent U Aan Het Doen?": Effecten van Tussentijdse Feedback van Actieve LLM-assistenten in Auto's Tijdens Meerstapsverwerking
"What Are You Doing?": Effects of Intermediate Feedback from Agentic LLM In-Car Assistants During Multi-Step Processing
February 17, 2026
Auteurs: Johannes Kirmayr, Raphael Wennmacher, Khanh Huynh, Lukas Stappen, Elisabeth André, Florian Alt
cs.AI
Samenvatting
Agentische AI-assistenten die autonoom meerstappentaken uitvoeren, roepen open vragen op voor de gebruikerservaring: hoe moeten dergelijke systemen voortgang en redenering communiceren tijdens langdurige operaties, vooral in aandacht-kritische contexten zoals autorijden? Wij onderzoeken de timing en uitgebreidheid van feedback van agentische op LLM gebaseerde auto-assistenten via een gecontroleerde, mixed-methods studie (N=45) waarbij feedback over geplande stappen en tussenresultaten wordt vergeleken met stille werking met alleen een eindresultaat. Met een dubbele-taakparadigma met een spraakassistent in de auto ontdekten we dat tussentijdse feedback de waargenomen snelheid, het vertrouwen en de gebruikerservaring significant verbeterde, terwijl de taakbelasting afnam – effecten die standhielden bij verschillende taakcomplexiteiten en interactiecontexten. Interviews onthulden verder een gebruikersvoorkeur voor een adaptieve aanpak: hoge initiële transparantie om vertrouwen op te bouwen, gevolgd door een geleidelijke vermindering van uitgebreidheid naarmate systemen betrouwbaar blijken, met aanpassingen op basis van taakbelang en situationele context. Wij vertalen onze empirische bevindingen naar ontwerpimplicaties voor de timing en uitgebreidheid van feedback in agentische assistenten, waarbij transparantie en efficiëntie in balans worden gebracht.
English
Agentic AI assistants that autonomously perform multi-step tasks raise open questions for user experience: how should such systems communicate progress and reasoning during extended operations, especially in attention-critical contexts such as driving? We investigate feedback timing and verbosity from agentic LLM-based in-car assistants through a controlled, mixed-methods study (N=45) comparing planned steps and intermediate results feedback against silent operation with final-only response. Using a dual-task paradigm with an in-car voice assistant, we found that intermediate feedback significantly improved perceived speed, trust, and user experience while reducing task load - effects that held across varying task complexities and interaction contexts. Interviews further revealed user preferences for an adaptive approach: high initial transparency to establish trust, followed by progressively reducing verbosity as systems prove reliable, with adjustments based on task stakes and situational context. We translate our empirical findings into design implications for feedback timing and verbosity in agentic assistants, balancing transparency and efficiency.