ChatPaper.aiChatPaper

Multi-gebruiker Large Language Model Agents

Multi-User Large Language Model Agents

March 19, 2026
Auteurs: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI

Samenvatting

Grootschalige taalmodelen (LLM's) en op LLM's gebaseerde agents worden steeds vaker ingezet als assistenten bij planning en besluitvorming. Toch zijn de meeste bestaande systemen impliciet geoptimaliseerd voor een enkel-principeel interactieparadigma, waarbij het model is ontworpen om de doelstellingen van één dominante gebruiker te dienen, wiens instructies worden beschouwd als de enige bron van autoriteit en nut. Naarmate ze echter worden geïntegreerd in teamwerkstromen en organisatorische tools, moeten ze in toenemende mate meerdere gebruikers gelijktijdig bedienen, elk met verschillende rollen, voorkeuren en autorisatieniveaus. Dit leidt tot multi-gebruiker, multi-principiële settings met onvermijdelijke conflicten, informatie-asymmetrie en privacybeperkingen. In dit werk presenteren we de eerste systematische studie naar multi-gebruiker LLM-agents. We beginnen met het formaliseren van multi-gebruiker interactie met LLM-agents als een multi-principieel beslissingsprobleem, waarbij één agent rekening moet houden met meerdere gebruikers met potentieel tegenstrijdige belangen en de daarmee gepaard gaande uitdagingen. Vervolgens introduceren we een uniform multi-gebruiker interactieprotocol en ontwerpen we drie gerichte stresstestscenario's om de capaciteiten van huidige LLM's te evalueren op het gebied van instructie-opvolging, privacybescherming en coördinatie. Onze resultaten onthullen systematische tekortkomingen: toonaangevende LLM's slagen er vaak niet in een stabiele prioritering aan te houden bij tegenstrijdige gebruikersdoelstellingen, vertonen een toename van privacyschendingen gedurende multi-turn interacties, en lijden onder efficiëntieknelpunten wanneer coördinatie iteratieve informatievergaring vereist.
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.
PDF133April 14, 2026