ChatPaper.aiChatPaper

Feedback by Design: Inzicht in en Overwinning van Gebruikersfeedbackbarrières bij Conversatie-agents

Feedback by Design: Understanding and Overcoming User Feedback Barriers in Conversational Agents

February 1, 2026
Auteurs: Nikhil Sharma, Zheng Zhang, Daniel Lee, Namita Krishnan, Guang-Jie Ren, Ziang Xiao, Yunyao Li
cs.AI

Samenvatting

Hoogwaardige feedback is essentieel voor effectieve mens-AI-interactie. Het overbrugt kennislacunes, corrigeert afdwalingen en vormt het systeemgedrag, zowel tijdens de interactie als gedurende de gehele modelontwikkeling. Ondanks dit belang is menselijke feedback aan AI echter vaak weinig frequent en van lage kwaliteit. Deze kloof motiveert een kritisch onderzoek naar menselijke feedback tijdens interacties met AI's. Om de uitdagingen te begrijpen en te overwinnen die gebruikers ervan weerhouden hoogwaardige feedback te geven, voerden we twee onderzoeken uit naar de feedbackdynamiek tussen mensen en conversationele agents (CA's). Ons formatieve onderzoek identificeerde, door de lens van Grice's maximes, vier feedbackbarrières – Gemeenschappelijke Grond, Verifieerbaarheid, Communicatie en Informativiteit – die hoogwaardige feedback door gebruikers verhinderen. Voortbouwend op deze bevindingen leiden we drie ontwerpvereisten af en tonen we aan dat systemen met ondersteunende structuren die aan deze vereisten voldoen, gebruikers in staat stelden feedback van hogere kwaliteit te geven. Ten slotte doen we een oproep tot actie aan de bredere AI-gemeenschap voor vooruitgang in de capaciteiten van Large Language Models om feedbackbarrières te overwinnen.
English
High-quality feedback is essential for effective human-AI interaction. It bridges knowledge gaps, corrects digressions, and shapes system behavior; both during interaction and throughout model development. Yet despite its importance, human feedback to AI is often infrequent and low quality. This gap motivates a critical examination of human feedback during interactions with AIs. To understand and overcome the challenges preventing users from giving high-quality feedback, we conducted two studies examining feedback dynamics between humans and conversational agents (CAs). Our formative study, through the lens of Grice's maxims, identified four Feedback Barriers -- Common Ground, Verifiability, Communication, and Informativeness -- that prevent high-quality feedback by users. Building on these findings, we derive three design desiderata and show that systems incorporating scaffolds aligned with these desiderata enabled users to provide higher-quality feedback. Finally, we detail a call for action to the broader AI community for advances in Large Language Models capabilities to overcome Feedback Barriers.
PDF13February 7, 2026