"Cosa stai facendo?": Effetti del feedback intermedio da assistenti vocali automobilistici basati su LLM agentici durante l'elaborazione multi-step
"What Are You Doing?": Effects of Intermediate Feedback from Agentic LLM In-Car Assistants During Multi-Step Processing
February 17, 2026
Autori: Johannes Kirmayr, Raphael Wennmacher, Khanh Huynh, Lukas Stappen, Elisabeth André, Florian Alt
cs.AI
Abstract
Gli assistenti IA agentici che eseguono autonomamente compiti multi-step sollevano questioni aperte per l'esperienza utente: come dovrebbero tali sistemi comunicare progressi e ragionamenti durante operazioni prolungate, specialmente in contesti che richiedono attenzione come la guida? Investigiamo tempistiche e verbosità del feedback da assistenti agentici basati su LLM in auto attraverso uno studio controllato a metodi misti (N=45) che confronta feedback su step pianificati e risultati intermedi con un funzionamento silenzioso e una risposta solo finale. Utilizzando un paradigma a doppio compito con un assistente vocale in auto, abbiamo riscontrato che il feedback intermedio ha migliorato significativamente la velocità percepita, la fiducia e l'esperienza utente, riducendo al contempo il carico di lavoro - effetti che si sono mantenuti across diverse complessità del compito e contesti d'interazione. Le interviste hanno inoltre rivelato una preferenza degli utenti per un approccio adattivo: alta trasparenza iniziale per stabilire fiducia, seguita da una progressiva riduzione della verbosità man mano che i sistemi dimostrano affidabilità, con aggiustamenti basati sull'importanza del compito e sul contesto situazionale. Traduciamo i nostri risultati empirici in implicazioni progettuali per tempistiche e verbosità del feedback negli assistenti agentici, bilanciando trasparenza ed efficienza.
English
Agentic AI assistants that autonomously perform multi-step tasks raise open questions for user experience: how should such systems communicate progress and reasoning during extended operations, especially in attention-critical contexts such as driving? We investigate feedback timing and verbosity from agentic LLM-based in-car assistants through a controlled, mixed-methods study (N=45) comparing planned steps and intermediate results feedback against silent operation with final-only response. Using a dual-task paradigm with an in-car voice assistant, we found that intermediate feedback significantly improved perceived speed, trust, and user experience while reducing task load - effects that held across varying task complexities and interaction contexts. Interviews further revealed user preferences for an adaptive approach: high initial transparency to establish trust, followed by progressively reducing verbosity as systems prove reliable, with adjustments based on task stakes and situational context. We translate our empirical findings into design implications for feedback timing and verbosity in agentic assistants, balancing transparency and efficiency.