Chi Interrogare per Cosa: Elicitazione Adattiva di Gruppo tramite Interazioni Multi-Turn con LLM
Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions
February 15, 2026
Autori: Ruomeng Ding, Tianwei Gao, Thomas P. Zollo, Eitan Bachmat, Richard Zemel, Zhun Deng
cs.AI
Abstract
L'acquisizione di informazioni per ridurre l'incertezza su proprietà latenti a livello di gruppo da sondaggi e altre valutazioni collettive richiede l'allocazione di uno sforzo di interrogazione limitato, considerando costi reali e dati mancanti. Sebbene i grandi modelli linguistici consentano interazioni adattive e multi-turn in linguaggio naturale, la maggior parte dei metodi di elicitation esistenti ottimizza *cosa* chiedere a un pool di rispondenti fisso, senza adattare la *selezione* dei rispondenti né sfruttare la struttura della popolazione quando le risposte sono parziali o incomplete. Per colmare questa lacuna, studiamo l'*adaptive group elicitation*, un contesto a più round in cui un agente seleziona adattivamente sia le domande che i rispondenti sotto vincoli espliciti di budget per le query e la partecipazione. Proponiamo un quadro teorico solido che combina (i) un obiettivo di guadagno informativo atteso basato su LLM per valutare le domande candidate con (ii) una propagazione eterogenea tramite graph neural network che aggrega le risposte osservate e gli attributi dei partecipanti per imputare le risposte mancanti e guidare la selezione dei rispondenti in ogni round. Questa procedura a ciclo chiuso interroga un piccolo sottoinsieme informativo di individui mentre inferisce le risposte a livello di popolazione attraverso similarità strutturata. Su tre dataset reali di opinioni, il nostro metodo migliora costantemente la previsione delle risposte a livello di popolazione con budget vincolati, incluso un guadagno relativo >12% sul CES con un budget del 10% dei rispondenti.
English
Eliciting information to reduce uncertainty about latent group-level properties from surveys and other collective assessments requires allocating limited questioning effort under real costs and missing data. Although large language models enable adaptive, multi-turn interactions in natural language, most existing elicitation methods optimize what to ask with a fixed respondent pool, and do not adapt respondent selection or leverage population structure when responses are partial or incomplete. To address this gap, we study adaptive group elicitation, a multi-round setting where an agent adaptively selects both questions and respondents under explicit query and participation budgets. We propose a theoretically grounded framework that combines (i) an LLM-based expected information gain objective for scoring candidate questions with (ii) heterogeneous graph neural network propagation that aggregates observed responses and participant attributes to impute missing responses and guide per-round respondent selection. This closed-loop procedure queries a small, informative subset of individuals while inferring population-level responses via structured similarity. Across three real-world opinion datasets, our method consistently improves population-level response prediction under constrained budgets, including a >12% relative gain on CES at a 10% respondent budget.