ChatPaper.aiChatPaper

A Quién Consultar para Qué: Elicitación Grupal Adaptativa mediante Interacciones Multi-Turn con LLM

Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions

February 15, 2026
Autores: Ruomeng Ding, Tianwei Gao, Thomas P. Zollo, Eitan Bachmat, Richard Zemel, Zhun Deng
cs.AI

Resumen

La obtención de información para reducir la incertidumbre sobre propiedades latentes a nivel grupal a partir de encuestas y otras evaluaciones colectivas requiere asignar un esfuerzo de cuestionamiento limitado bajo costes reales y datos faltantes. Aunque los modelos de lenguaje grande (LLM) permiten interacciones adaptativas y multimodales en lenguaje natural, la mayoría de los métodos de obtención existentes optimizan qué preguntar con un grupo fijo de encuestados, y no adaptan la selección de encuestados ni aprovechan la estructura poblacional cuando las respuestas son parciales o incompletas. Para abordar esta brecha, estudiamos la obtención grupal adaptativa, un entorno de múltiples rondas donde un agente selecciona de forma adaptativa tanto las preguntas como los encuestados bajo presupuestos explícitos de consulta y participación. Proponemos un marco teóricamente fundamentado que combina (i) un objetivo de ganancia de información esperada basado en LLM para puntuar preguntas candidatas con (ii) una propagación de red neuronal de grafos heterogéneos que agrega las respuestas observadas y los atributos de los participantes para imputar las respuestas faltantes y guiar la selección de encuestados por ronda. Este procedimiento de bucle cerrado consulta a un subconjunto pequeño e informativo de individuos mientras infiere las respuestas a nivel poblacional mediante similitud estructurada. En tres conjuntos de datos de opinión del mundo real, nuestro método mejora consistentemente la predicción de respuestas a nivel poblacional bajo presupuestos restringidos, incluyendo una ganancia relativa >12% en CES con un presupuesto de encuestados del 10%.
English
Eliciting information to reduce uncertainty about latent group-level properties from surveys and other collective assessments requires allocating limited questioning effort under real costs and missing data. Although large language models enable adaptive, multi-turn interactions in natural language, most existing elicitation methods optimize what to ask with a fixed respondent pool, and do not adapt respondent selection or leverage population structure when responses are partial or incomplete. To address this gap, we study adaptive group elicitation, a multi-round setting where an agent adaptively selects both questions and respondents under explicit query and participation budgets. We propose a theoretically grounded framework that combines (i) an LLM-based expected information gain objective for scoring candidate questions with (ii) heterogeneous graph neural network propagation that aggregates observed responses and participant attributes to impute missing responses and guide per-round respondent selection. This closed-loop procedure queries a small, informative subset of individuals while inferring population-level responses via structured similarity. Across three real-world opinion datasets, our method consistently improves population-level response prediction under constrained budgets, including a >12% relative gain on CES at a 10% respondent budget.
PDF11February 24, 2026