"¿Qué Estás Haciendo?": Efectos de la Retroalimentación Intermedia de Asistentes de Coche con IA Agentica Durante el Procesamiento Multi-etapa
"What Are You Doing?": Effects of Intermediate Feedback from Agentic LLM In-Car Assistants During Multi-Step Processing
February 17, 2026
Autores: Johannes Kirmayr, Raphael Wennmacher, Khanh Huynh, Lukas Stappen, Elisabeth André, Florian Alt
cs.AI
Resumen
Los asistentes de IA agenticos que realizan autónomamente tareas de múltiples pasos plantean interrogantes abiertos para la experiencia de usuario: ¿cómo deben estos sistemas comunicar el progreso y el razonamiento durante operaciones prolongadas, especialmente en contextos que requieren atención crítica como la conducción? Investigamos el momento y la verbosidad de la retroalimentación de asistentes agenticos basados en LLM para vehículos mediante un estudio controlado de métodos mixtos (N=45) que compara la retroalimentación sobre pasos planificados y resultados intermedios frente a una operación silenciosa con solo respuesta final. Utilizando un paradigma de doble tarea con un asistente de voz en el vehículo, encontramos que la retroalimentación intermedia mejoró significativamente la velocidad percibida, la confianza y la experiencia de usuario, al tiempo que redujo la carga de trabajo, efectos que se mantuvieron en distintas complejidades de tareas y contextos de interacción. Las entrevistas revelaron además una preferencia de los usuarios por un enfoque adaptativo: alta transparencia inicial para establecer confianza, seguida de una reducción progresiva de la verbosidad a medida que los sistemas demuestran ser confiables, con ajustes basados en la importancia de la tarea y el contexto situacional. Traducimos nuestros hallazgos empíricos en implicaciones de diseño para el momento y la verbosidad de la retroalimentación en asistentes agenticos, equilibrando transparencia y eficiencia.
English
Agentic AI assistants that autonomously perform multi-step tasks raise open questions for user experience: how should such systems communicate progress and reasoning during extended operations, especially in attention-critical contexts such as driving? We investigate feedback timing and verbosity from agentic LLM-based in-car assistants through a controlled, mixed-methods study (N=45) comparing planned steps and intermediate results feedback against silent operation with final-only response. Using a dual-task paradigm with an in-car voice assistant, we found that intermediate feedback significantly improved perceived speed, trust, and user experience while reducing task load - effects that held across varying task complexities and interaction contexts. Interviews further revealed user preferences for an adaptive approach: high initial transparency to establish trust, followed by progressively reducing verbosity as systems prove reliable, with adjustments based on task stakes and situational context. We translate our empirical findings into design implications for feedback timing and verbosity in agentic assistants, balancing transparency and efficiency.