ChatPaper.aiChatPaper

Conception par le Retour d'Information : Comprendre et Surmonter les Obstacles au Retour Utilisateur dans les Agents Conversationnels

Feedback by Design: Understanding and Overcoming User Feedback Barriers in Conversational Agents

February 1, 2026
papers.authors: Nikhil Sharma, Zheng Zhang, Daniel Lee, Namita Krishnan, Guang-Jie Ren, Ziang Xiao, Yunyao Li
cs.AI

papers.abstract

Un retour de haute qualité est essentiel pour une interaction homme-IA efficace. Il comble les lacunes de connaissances, corrige les digressions et façonne le comportement du système, tant durant l'interaction que tout au long du développement du modèle. Pourtant, malgré son importance, le retour humain fourni aux IA est souvent peu fréquent et de faible qualité. Cet écart motive un examen critique du retour humain lors des interactions avec les IA. Pour comprendre et surmonter les défis empêchant les utilisateurs de fournir un retour de haute qualité, nous avons mené deux études examinant la dynamique du retour entre les humains et les agents conversationnels. Notre étude formative, à travers le prisme des maximes de Grice, a identifié quatre obstacles au retour — le terrain d'entente, la vérifiabilité, la communication et l'informativité — qui empêchent les utilisateurs de fournir un retour de haute qualité. En nous appuyant sur ces résultats, nous dérivons trois desiderata de conception et montrons que les systèmes intégrant des supports alignés sur ces desiderata ont permis aux utilisateurs de fournir un retour de meilleure qualité. Enfin, nous détaillons un appel à l'action lancé à la communauté de l'IA en faveur de progrès dans les capacités des grands modèles de langage pour surmonter les obstacles au retour.
English
High-quality feedback is essential for effective human-AI interaction. It bridges knowledge gaps, corrects digressions, and shapes system behavior; both during interaction and throughout model development. Yet despite its importance, human feedback to AI is often infrequent and low quality. This gap motivates a critical examination of human feedback during interactions with AIs. To understand and overcome the challenges preventing users from giving high-quality feedback, we conducted two studies examining feedback dynamics between humans and conversational agents (CAs). Our formative study, through the lens of Grice's maxims, identified four Feedback Barriers -- Common Ground, Verifiability, Communication, and Informativeness -- that prevent high-quality feedback by users. Building on these findings, we derive three design desiderata and show that systems incorporating scaffolds aligned with these desiderata enabled users to provide higher-quality feedback. Finally, we detail a call for action to the broader AI community for advances in Large Language Models capabilities to overcome Feedback Barriers.
PDF11February 5, 2026