ChatPaper.aiChatPaper

Wen für Was Befragen: Adaptive Gruppenerhebung durch Mehrschritt-Interaktionen mit KI-Sprachmodellen

Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions

February 15, 2026
papers.authors: Ruomeng Ding, Tianwei Gao, Thomas P. Zollo, Eitan Bachmat, Richard Zemel, Zhun Deng
cs.AI

papers.abstract

Die Gewinnung von Informationen zur Reduzierung von Unsicherheiten über latente gruppenbezogene Eigenschaften aus Umfragen und anderen kollektiven Erhebungen erfordert die Zuteilung begrenzter Befragungsressourcen unter realen Kosten und bei unvollständigen Daten. Obwohl große Sprachmodelle adaptive, mehrstufige Interaktionen in natürlicher Sprache ermöglichen, optimieren die meisten bestehenden Erhebungsmethoden lediglich die Fragenauswahl für einen festen Teilnehmerpool, ohne die Auswahl der Befragten anzupassen oder Populationsstrukturen bei unvollständigen Antworten zu nutzen. Um diese Lücke zu schließen, untersuchen wir adaptive Gruppenerhebung, ein mehrstufiges Szenario, in dem ein Agent sowohl Fragen als auch Befragte unter expliziten Abfrage- und Teilnahmebudgets adaptiv auswählt. Wir schlagen einen theoretisch fundierten Rahmen vor, der (i) ein auf großen Sprachmodellen basierendes Zielkriterium des erwarteten Informationsgewinns zur Bewertung von Kandidatenfragen mit (ii) heterogener Graph-Neural-Network-Propagation kombiniert, die beobachtete Antworten und Teilnehmermerkmale aggregiert, um fehlende Antworten zu imputieren und die pro Runde Auswahl der Befragten zu steuern. Dieses geschlossene Verfahren befragt eine kleine, informative Teilmenge von Individuen, während populationsbezogene Antworten durch strukturierte Ähnlichkeit abgeleitet werden. In drei realen Meinungsdatensätzen verbessert unsere Methode durchgängig die Vorhersage von Antworten auf Populationsebene unter begrenzten Budgets, einschließlich eines relativen Gewinns von >12 % beim CES bei einem Befragtenbudget von 10 %.
English
Eliciting information to reduce uncertainty about latent group-level properties from surveys and other collective assessments requires allocating limited questioning effort under real costs and missing data. Although large language models enable adaptive, multi-turn interactions in natural language, most existing elicitation methods optimize what to ask with a fixed respondent pool, and do not adapt respondent selection or leverage population structure when responses are partial or incomplete. To address this gap, we study adaptive group elicitation, a multi-round setting where an agent adaptively selects both questions and respondents under explicit query and participation budgets. We propose a theoretically grounded framework that combines (i) an LLM-based expected information gain objective for scoring candidate questions with (ii) heterogeneous graph neural network propagation that aggregates observed responses and participant attributes to impute missing responses and guide per-round respondent selection. This closed-loop procedure queries a small, informative subset of individuals while inferring population-level responses via structured similarity. Across three real-world opinion datasets, our method consistently improves population-level response prediction under constrained budgets, including a >12% relative gain on CES at a 10% respondent budget.
PDF11February 24, 2026