マルチユーザー大規模言語モデルエージェント
Multi-User Large Language Model Agents
March 19, 2026
著者: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI
要旨
大規模言語モデル(LLM)およびLLMベースのエージェントは、計画立案や意思決定におけるアシスタントとしてますます導入が進んでいる。しかし、既存システムの多くは単一主体の相互作用パラダイムに向けて暗黙的に最適化されており、モデルは支配的な単一ユーザーの目的を満たすように設計され、その指示が唯一の権威と効用の源泉として扱われている。しかし、チームワークフローや組織ツールに統合されるにつれ、LLMは異なる役割、選好、権限レベルを持つ複数ユーザーに同時にサービスを提供する必要性が高まっており、これにより、不可避の衝突、情報の非対称性、プライバシー制約を伴う複数ユーザー・複数主体の設定が生じている。本研究では、複数ユーザーLLMエージェントに関する初の体系的な研究を提示する。まず、LLMエージェントとの複数ユーザー相互作用を、潜在的に対立する利害関係と関連課題を抱える複数ユーザーを単一エージェントが考慮しなければならない複数主体意思決定問題として定式化する。次に、統一的な複数ユーザー相互作用プロトコルを導入し、現在のLLMの指示遵守能力、プライバシー保護能力、調整能力を評価するため、3つの重点的ストレステストシナリオを設計する。実験結果は体系的な課題を明らかにする:最先端のLLMは、対立するユーザー目的の下で安定した優先順位維持に頻繁に失敗し、マルチターン相互作用においてプライバシー侵害が増加し、調整に反復的な情報収集が必要な場合に効率性のボトルネックに陥る。
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.