Diseño para la Retroalimentación: Comprender y Superar las Barreras de Retroalimentación del Usuario en Agentes Conversacionales
Feedback by Design: Understanding and Overcoming User Feedback Barriers in Conversational Agents
February 1, 2026
Autores: Nikhil Sharma, Zheng Zhang, Daniel Lee, Namita Krishnan, Guang-Jie Ren, Ziang Xiao, Yunyao Li
cs.AI
Resumen
La retroalimentación de alta calidad es esencial para una interacción efectiva entre humanos e IA. Esta sirve para salvar brechas de conocimiento, corregir desviaciones y moldear el comportamiento del sistema, tanto durante la interacción como a lo largo del desarrollo del modelo. Sin embargo, a pesar de su importancia, la retroalimentación humana dirigida a las IA suele ser escasa y de baja calidad. Esta disparidad motiva un examen crítico de la retroalimentación humana durante las interacciones con las IA. Para comprender y superar los desafíos que impiden a los usuarios proporcionar retroalimentación de alta calidad, realizamos dos estudios que examinan la dinámica de la retroalimentación entre humanos y agentes conversacionales (AC). Nuestro estudio formativo, a través de la lente de las máximas de Grice, identificó cuatro Barreras de Retroalimentación —Base Común, Verificabilidad, Comunicación e Informatividad— que impiden que los usuarios proporcionen una retroalimentación de alta calidad. Basándonos en estos hallazgos, derivamos tres desiderátums de diseño y demostramos que los sistemas que incorporan andamiajes alineados con estos desiderátums permitieron a los usuarios proporcionar una retroalimentación de mayor calidad. Finalmente, detallamos un llamado a la acción a la comunidad más amplia de la IA para lograr avances en las capacidades de los Modelos de Lenguaje a Gran Escala que superen las Barreras de Retroalimentación.
English
High-quality feedback is essential for effective human-AI interaction. It bridges knowledge gaps, corrects digressions, and shapes system behavior; both during interaction and throughout model development. Yet despite its importance, human feedback to AI is often infrequent and low quality. This gap motivates a critical examination of human feedback during interactions with AIs. To understand and overcome the challenges preventing users from giving high-quality feedback, we conducted two studies examining feedback dynamics between humans and conversational agents (CAs). Our formative study, through the lens of Grice's maxims, identified four Feedback Barriers -- Common Ground, Verifiability, Communication, and Informativeness -- that prevent high-quality feedback by users. Building on these findings, we derive three design desiderata and show that systems incorporating scaffolds aligned with these desiderata enabled users to provide higher-quality feedback. Finally, we detail a call for action to the broader AI community for advances in Large Language Models capabilities to overcome Feedback Barriers.