ChatPaper.aiChatPaper

"O Que Você Está Fazendo?": Efeitos do Feedback Intermediário de Assistentes Veiculares com IA Generativa Durante Processamento em Múltiplas Etapas

"What Are You Doing?": Effects of Intermediate Feedback from Agentic LLM In-Car Assistants During Multi-Step Processing

February 17, 2026
Autores: Johannes Kirmayr, Raphael Wennmacher, Khanh Huynh, Lukas Stappen, Elisabeth André, Florian Alt
cs.AI

Resumo

Assistentes de IA agentes que realizam tarefas multi-etapa de forma autónoma levantam questões em aberto para a experiência do utilizador: como devem estes sistemas comunicar o progresso e o raciocínio durante operações prolongadas, especialmente em contextos críticos de atenção, como a condução? Investigámos o *timing* e a verbosidade do *feedback* de assistentes agentes baseados em LLM para o carro, através de um estudo controlado de métodos mistos (N=45) que comparou o *feedback* sobre etapas planeadas e resultados intermédios com uma operação silenciosa que fornece apenas o resultado final. Utilizando um paradigma de dupla tarefa com um assistente de voz no carro, descobrimos que o *feedback* intermédio melhorou significativamente a velocidade percebida, a confiança e a experiência do utilizador, ao mesmo tempo que reduziu a carga de tarefa – efeitos que se mantiveram em diferentes complexidades de tarefa e contextos de interação. Entrevistas revelaram ainda a preferência dos utilizadores por uma abordagem adaptativa: alta transparência inicial para estabelecer confiança, seguida de uma redução progressiva da verbosidade à medida que o sistema prova ser fiável, com ajustes baseados na importância da tarefa e no contexto situacional. Traduzimos as nossas descobertas empíricas em implicações de *design* para o *timing* e a verbosidade do *feedback* em assistentes agentes, equilibrando transparência e eficiência.
English
Agentic AI assistants that autonomously perform multi-step tasks raise open questions for user experience: how should such systems communicate progress and reasoning during extended operations, especially in attention-critical contexts such as driving? We investigate feedback timing and verbosity from agentic LLM-based in-car assistants through a controlled, mixed-methods study (N=45) comparing planned steps and intermediate results feedback against silent operation with final-only response. Using a dual-task paradigm with an in-car voice assistant, we found that intermediate feedback significantly improved perceived speed, trust, and user experience while reducing task load - effects that held across varying task complexities and interaction contexts. Interviews further revealed user preferences for an adaptive approach: high initial transparency to establish trust, followed by progressively reducing verbosity as systems prove reliable, with adjustments based on task stakes and situational context. We translate our empirical findings into design implications for feedback timing and verbosity in agentic assistants, balancing transparency and efficiency.
PDF122February 21, 2026