Feedback by Design: Comprendere e Superare le Barriere al Feedback Utente negli Agenti Conversazionali
Feedback by Design: Understanding and Overcoming User Feedback Barriers in Conversational Agents
February 1, 2026
Autori: Nikhil Sharma, Zheng Zhang, Daniel Lee, Namita Krishnan, Guang-Jie Ren, Ziang Xiao, Yunyao Li
cs.AI
Abstract
Un feedback di alta qualità è essenziale per un'efficace interazione uomo-IA. Esso colma lacune conoscitive, corregge divagazioni e modella il comportamento del sistema, sia durante l'interazione che lungo tutto lo sviluppo del modello. Tuttavia, nonostante la sua importanza, il feedback umano fornito all'IA è spesso poco frequente e di bassa qualità. Questa discrepanza motiva un esame critico del feedback umano durante le interazioni con le IA. Per comprendere e superare le sfide che impediscono agli utenti di fornire un feedback di alta qualità, abbiamo condotto due studi che esaminano le dinamiche di feedback tra esseri umani e agenti conversazionali (CA). Il nostro studio formativo, attraverso la lente delle massime di Grice, ha identificato quattro Barriere al Feedback — Terreno Comune, Verificabilità, Comunicazione e Informatività — che impediscono agli utenti di fornire un feedback di alta qualità. Sulla base di questi risultati, abbiamo derivato tre desiderata progettuali e dimostrato che i sistemi che incorporano impalcature allineate con questi desiderata hanno consentito agli utenti di fornire un feedback di qualità superiore. Infine, dettagliamo un appello all'azione per la più ampia comunità dell'IA, affinché si compiano progressi nelle capacità dei Modelli Linguistici di Grande Scala per superare le Barriere al Feedback.
English
High-quality feedback is essential for effective human-AI interaction. It bridges knowledge gaps, corrects digressions, and shapes system behavior; both during interaction and throughout model development. Yet despite its importance, human feedback to AI is often infrequent and low quality. This gap motivates a critical examination of human feedback during interactions with AIs. To understand and overcome the challenges preventing users from giving high-quality feedback, we conducted two studies examining feedback dynamics between humans and conversational agents (CAs). Our formative study, through the lens of Grice's maxims, identified four Feedback Barriers -- Common Ground, Verifiability, Communication, and Informativeness -- that prevent high-quality feedback by users. Building on these findings, we derive three design desiderata and show that systems incorporating scaffolds aligned with these desiderata enabled users to provide higher-quality feedback. Finally, we detail a call for action to the broader AI community for advances in Large Language Models capabilities to overcome Feedback Barriers.