ChatPaper.aiChatPaper

**무엇에 대해 누구에게 질문할 것인가: 다중 턴 LLM 상호작용을 통한 적응형 그룹 의견 수집**

Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions

February 15, 2026
저자: Ruomeng Ding, Tianwei Gao, Thomas P. Zollo, Eitan Bachmat, Richard Zemel, Zhun Deng
cs.AI

초록

잠재적 집단 수준 특성에 대한 불확실성을 설문 및 기타 집단 평가를 통해 줄이기 위한 정보 도출은 실제 비용과 결측 데이터 상황에서 제한된 질문 노력을 할당해야 합니다. 대규모 언어 모델은 자연어 기반 적응형 다중 회상 상호작용을 가능하게 하지만, 기존 대부분의 도출 방법은 고정된 응답자 풀을 대상으로 질문 내용만 최적화하며, 응답이 부분적이거나 불완전할 때 응답자 선택을 적응하거나 인구 구조를 활용하지 않습니다. 이러한 격차를 해결하기 위해 우리는 에이전트가 명시적 질의 및 참여 예산 하에서 질문과 응답자를 모두 적응적으로 선택하는 다중 라운드 설정인 적응형 집단 도출을 연구합니다. 우리는 (i) 후보 질문 평가를 위한 LLM 기반 예상 정보 획득 목적 함수와 (ii) 관찰된 응답과 참가자 속성을 집계하여 결측 응답을 추정하고 라운드별 응답자 선택을 안내하는 이종 그래프 신경망 전파를 결합한 이론적 근거가 있는 프레임워크를 제안합니다. 이 폐쇄형 절차는 구조적 유사성을 통해 집단 수준 응답을 추론하면서 소수이지만 정보성이 높은 개인들의 부분집합을 질의합니다. 세 가지 실제 여론 데이터셋에서 우리의 방법은 제한된 예산 하에서 집단 수준 응답 예측을 지속적으로 개선했으며, 특히 10% 응답자 예산에서 CES에 대해 12% 이상의 상대적 향상을 달성했습니다.
English
Eliciting information to reduce uncertainty about latent group-level properties from surveys and other collective assessments requires allocating limited questioning effort under real costs and missing data. Although large language models enable adaptive, multi-turn interactions in natural language, most existing elicitation methods optimize what to ask with a fixed respondent pool, and do not adapt respondent selection or leverage population structure when responses are partial or incomplete. To address this gap, we study adaptive group elicitation, a multi-round setting where an agent adaptively selects both questions and respondents under explicit query and participation budgets. We propose a theoretically grounded framework that combines (i) an LLM-based expected information gain objective for scoring candidate questions with (ii) heterogeneous graph neural network propagation that aggregates observed responses and participant attributes to impute missing responses and guide per-round respondent selection. This closed-loop procedure queries a small, informative subset of individuals while inferring population-level responses via structured similarity. Across three real-world opinion datasets, our method consistently improves population-level response prediction under constrained budgets, including a >12% relative gain on CES at a 10% respondent budget.
PDF11February 24, 2026