ChatPaper.aiChatPaper

Feedback by Design: Verständnis und Überwindung von Nutzerfeedback-Barrieren bei Konversationsagenten

Feedback by Design: Understanding and Overcoming User Feedback Barriers in Conversational Agents

February 1, 2026
papers.authors: Nikhil Sharma, Zheng Zhang, Daniel Lee, Namita Krishnan, Guang-Jie Ren, Ziang Xiao, Yunyao Li
cs.AI

papers.abstract

Hochwertiges Feedback ist entscheidend für eine effektive Mensch-KI-Interaktion. Es schließt Wissenslücken, korrigiert Abschweifungen und formt das Systemverhalten – sowohl während der Interaktion als auch im gesamten Modellentwicklungsprozess. Trotz seiner Bedeutung ist menschliches Feedback für KI-Systeme jedoch oft unzureichend und von geringer Qualität. Diese Lücke motiviert eine kritische Untersuchung des menschlichen Feedbackverhaltens in Interaktionen mit KIs. Um die Herausforderungen zu verstehen und zu überwinden, die Nutzer daran hindern, hochwertiges Feedback zu geben, führten wir zwei Studien durch, die die Feedback-Dynamik zwischen Menschen und konversationellen Agenten (CAs) untersuchten. Unsere formative Studie identifizierte durch die Linse der Grice'schen Maximen vier Feedback-Barrieren – gemeinsamer Bezugsrahmen, Verifizierbarkeit, Kommunikation und Informationsgehalt –, die hochwertiges Feedback seitens der Nutzer verhindern. Aufbauend auf diesen Erkenntnissen leiten wir drei Design-Desiderate ab und zeigen, dass Systeme mit unterstützenden Strukturen, die diesen Desideraten entsprechen, Nutzern ermöglichten, qualitativ besseres Feedback zu geben. Abschließend rufen wir die breitere KI-Community zum Handeln auf, um die Fähigkeiten großer Sprachmodelle so weiterzuentwickeln, dass sie Feedback-Barrieren überwinden können.
English
High-quality feedback is essential for effective human-AI interaction. It bridges knowledge gaps, corrects digressions, and shapes system behavior; both during interaction and throughout model development. Yet despite its importance, human feedback to AI is often infrequent and low quality. This gap motivates a critical examination of human feedback during interactions with AIs. To understand and overcome the challenges preventing users from giving high-quality feedback, we conducted two studies examining feedback dynamics between humans and conversational agents (CAs). Our formative study, through the lens of Grice's maxims, identified four Feedback Barriers -- Common Ground, Verifiability, Communication, and Informativeness -- that prevent high-quality feedback by users. Building on these findings, we derive three design desiderata and show that systems incorporating scaffolds aligned with these desiderata enabled users to provide higher-quality feedback. Finally, we detail a call for action to the broader AI community for advances in Large Language Models capabilities to overcome Feedback Barriers.
PDF11February 5, 2026