ChatPaper.aiChatPaper

Кого и о чём спрашивать: адаптивное формирование групп через многоходовое взаимодействие с большими языковыми моделями

Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions

February 15, 2026
Авторы: Ruomeng Ding, Tianwei Gao, Thomas P. Zollo, Eitan Bachmat, Richard Zemel, Zhun Deng
cs.AI

Аннотация

Сбор информации для снижения неопределенности в отношении латентных свойств на групповом уровне с помощью опросов и других коллективных оценок требует распределения ограниченных ресурсов для задавания вопросов в условиях реальных затрат и отсутствующих данных. Хотя большие языковые модели позволяют проводить адаптивные многоэтапные взаимодействия на естественном языке, большинство существующих методов сбора информации оптимизируют содержание вопросов для фиксированной группы респондентов и не адаптируют выбор респондентов или не используют структуру популяции при частичных или неполных ответах. Для устранения этого пробела мы исследуем адаптивный сбор групповых данных — многораундовый сценарий, в котором агент адаптивно выбирает как вопросы, так и респондентов в рамках явных бюджетов на запросы и участие. Мы предлагаем теоретически обоснованную структуру, которая сочетает (i) цель ожидаемого прироста информации на основе LLM для оценки кандидатных вопросов с (ii) распространением через гетерогенные графовые нейронные сети, которое агрегирует наблюдаемые ответы и атрибуты участников для импутации пропущенных ответов и руководства выбором респондентов в каждом раунде. Эта замкнутая процедура опрашивает небольшое, информативное подмножество индивидов, одновременно выводя ответы на уровне популяции через структурированное сходство. На трех наборах данных о реальных мнениях наш метод последовательно улучшает прогнозирование ответов на уровне популяции при ограниченных бюджетах, включая относительное улучшение >12% на CES при бюджете в 10% респондентов.
English
Eliciting information to reduce uncertainty about latent group-level properties from surveys and other collective assessments requires allocating limited questioning effort under real costs and missing data. Although large language models enable adaptive, multi-turn interactions in natural language, most existing elicitation methods optimize what to ask with a fixed respondent pool, and do not adapt respondent selection or leverage population structure when responses are partial or incomplete. To address this gap, we study adaptive group elicitation, a multi-round setting where an agent adaptively selects both questions and respondents under explicit query and participation budgets. We propose a theoretically grounded framework that combines (i) an LLM-based expected information gain objective for scoring candidate questions with (ii) heterogeneous graph neural network propagation that aggregates observed responses and participant attributes to impute missing responses and guide per-round respondent selection. This closed-loop procedure queries a small, informative subset of individuals while inferring population-level responses via structured similarity. Across three real-world opinion datasets, our method consistently improves population-level response prediction under constrained budgets, including a >12% relative gain on CES at a 10% respondent budget.
PDF11February 24, 2026