ChatPaper.aiChatPaper

A Quem Consultar sobre o Quê: Eliciação Adaptativa de Grupos através de Interações Multi-turno com LLMs

Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions

February 15, 2026
Autores: Ruomeng Ding, Tianwei Gao, Thomas P. Zollo, Eitan Bachmat, Richard Zemel, Zhun Deng
cs.AI

Resumo

A obtenção de informações para reduzir a incerteza sobre propriedades latentes a nível de grupo a partir de inquéritos e outras avaliações coletivas exige a alocação de um esforço de questionamento limitado sob custos reais e dados em falta. Embora os modelos de linguagem de grande escala (LLMs) permitam interações adaptativas e multi-turno em linguagem natural, a maioria dos métodos de elicitação existentes otimiza o que perguntar com um conjunto fixo de inquiridos, e não adapta a seleção de inquiridos nem aproveita a estrutura da população quando as respostas são parciais ou incompletas. Para colmatar esta lacuna, estudamos a elicitação adaptativa de grupo, um cenário de múltiplas rondas em que um agente seleciona de forma adaptativa tanto as perguntas como os inquiridos sob orçamentos explícitos de consulta e participação. Propomos um quadro teoricamente fundamentado que combina (i) um objetivo de ganho esperado de informação baseado em LLM para pontuar perguntas candidatas com (ii) uma propagação de rede neural de grafos heterogéneos que agrega respostas observadas e atributos dos participantes para imputar respostas em falta e orientar a seleção de inquiridos por ronda. Este procedimento de ciclo fechado consulta um subconjunto pequeno e informativo de indivíduos, inferindo simultaneamente respostas a nível populacional através de similaridade estruturada. Em três conjuntos de dados de opinião do mundo real, o nosso método melhora consistentemente a previsão de respostas a nível populacional sob orçamentos restritos, incluindo um ganho relativo >12% no CES com um orçamento de 10% de inquiridos.
English
Eliciting information to reduce uncertainty about latent group-level properties from surveys and other collective assessments requires allocating limited questioning effort under real costs and missing data. Although large language models enable adaptive, multi-turn interactions in natural language, most existing elicitation methods optimize what to ask with a fixed respondent pool, and do not adapt respondent selection or leverage population structure when responses are partial or incomplete. To address this gap, we study adaptive group elicitation, a multi-round setting where an agent adaptively selects both questions and respondents under explicit query and participation budgets. We propose a theoretically grounded framework that combines (i) an LLM-based expected information gain objective for scoring candidate questions with (ii) heterogeneous graph neural network propagation that aggregates observed responses and participant attributes to impute missing responses and guide per-round respondent selection. This closed-loop procedure queries a small, informative subset of individuals while inferring population-level responses via structured similarity. Across three real-world opinion datasets, our method consistently improves population-level response prediction under constrained budgets, including a >12% relative gain on CES at a 10% respondent budget.
PDF11February 24, 2026