ChatPaper.aiChatPaper

다중 사용자 대규모 언어 모델 에이전트

Multi-User Large Language Model Agents

March 19, 2026
저자: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI

초록

대규모 언어 모델(LLM)과 LLM 기반 에이전트는 계획 및 의사 결정 지원 도구로 점차 더 많이 배포되고 있지만, 대부분의 기존 시스템은 단일 주체 상호작용 패러다임에 맞춰 암묵적으로 최적화되어 있습니다. 즉, 모델은 지시를 권위와 효용의 유일한 원천으로 간주하는 한 명의 주도적 사용자의 목적을 충족하도록 설계되었습니다. 그러나 이러한 시스템이 팀 워크플로우와 조직 도구에 통합됨에 따라, 각기 다른 역할, 선호도, 권한 수준을 가진 여러 사용자를 동시에 서비스해야 할 필요성이 커지고 있습니다. 이로 인해 불가피한 갈등, 정보 비대칭, 프라이버시 제약이 수반되는 다중 사용자, 다중 주체 환경이 발생하고 있습니다. 본 연구에서는 다중 사용자 LLM 에이전트에 대한 첫 번째 체계적인 연구를 제시합니다. 우리는 먼저 LLM 에이전트와의 다중 사용자 상호작용을, 단일 에이전트가 잠재적으로 상충되는 이익과 관련 과제를 가진 여러 사용자를 고려해야 하는 다중 주체 의사 결정 문제로 정형화합니다. 그런 다음 통합된 다중 사용자 상호작용 프로토콜을 도입하고, 현재 LLM의 지시 따르기, 프라이버시 보호, 조정 능력을 평가하기 위해 세 가지 표적 스트레스 테스트 시나리오를 설계합니다. 우리의 실험 결과는 체계적인 격차를 보여줍니다: 최첨단 LLM은 상충되는 사용자 목표 하에서 안정적인 우선순위 유지에 자주 실패하며, 다중 턴 상호작용에서 프라이버시 침해가 증가하고, 조정에 반복적인 정보 수집이 필요할 때 효율성 병목 현상을 겪습니다.
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.
PDF133April 14, 2026