誰に何を尋ねるか:マルチターンLLM対話による適応的グループ情報抽出
Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions
February 15, 2026
著者: Ruomeng Ding, Tianwei Gao, Thomas P. Zollo, Eitan Bachmat, Richard Zemel, Zhun Deng
cs.AI
要旨
潜在的な集団特性に関する不確実性を低減する情報を、調査やその他の集団的評価から引き出すには、実際のコストや欠測データを考慮した限定的な質問リソースの配分が必要である。大規模言語モデルは自然言語による適応的な対話を可能にするが、既存の手法の多くは固定された回答者プールに対して質問内容を最適化するもので、回答が部分的または不完全な場合に回答者選択を適応させたり集団構造を活用したりしない。この課題に対処するため、我々はエージェントが質問と回答者の両方を明示的な質問・参加予算制約下で適応的に選択する多ラウンド設定である「適応的集団情報抽出」を研究する。理論に基づいたフレームワークとして、(i) LLMベースの期待情報ゲインによる質問候補の評価と、(ii) 観測された回答と参加者属性を集約して欠測回答を補完し、ラウンドごとの回答者選択を導く異種グラフニューラルネットワーク伝播を組み合わせる。この閉ループ手順により、構造化された類似性を通じて集団レベルの回答を推論しつつ、情報量の多い少数の個人に効率的に質問を行う。3つの実世界意見データセットにおける実験では、制約予算下での集団レベル回答予測において本手法が一貫して改善を示し、特にCESデータセットでは10%の回答者予算で12%以上の相対的改善を達成した。
English
Eliciting information to reduce uncertainty about latent group-level properties from surveys and other collective assessments requires allocating limited questioning effort under real costs and missing data. Although large language models enable adaptive, multi-turn interactions in natural language, most existing elicitation methods optimize what to ask with a fixed respondent pool, and do not adapt respondent selection or leverage population structure when responses are partial or incomplete. To address this gap, we study adaptive group elicitation, a multi-round setting where an agent adaptively selects both questions and respondents under explicit query and participation budgets. We propose a theoretically grounded framework that combines (i) an LLM-based expected information gain objective for scoring candidate questions with (ii) heterogeneous graph neural network propagation that aggregates observed responses and participant attributes to impute missing responses and guide per-round respondent selection. This closed-loop procedure queries a small, informative subset of individuals while inferring population-level responses via structured similarity. Across three real-world opinion datasets, our method consistently improves population-level response prediction under constrained budgets, including a >12% relative gain on CES at a 10% respondent budget.