Agents de modèles de langage de grande taille multi-utilisateurs
Multi-User Large Language Model Agents
March 19, 2026
Auteurs: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI
Résumé
Les grands modèles de langage (LLM) et les agents basés sur LLM sont de plus en plus déployés comme assistants dans la planification et la prise de décision. Pourtant, la plupart des systèmes existants sont implicitement optimisés pour un paradigme d'interaction à principal unique, où le modèle est conçu pour satisfaire les objectifs d'un utilisateur dominant dont les instructions sont traitées comme la seule source d'autorité et d'utilité. Cependant, au fur et à mesure de leur intégration dans les flux de travail d'équipe et les outils organisationnels, ils sont de plus en plus amenés à servir simultanément plusieurs utilisateurs, chacun ayant des rôles, des préférences et des niveaux d'autorité distincts, ce qui conduit à des configurations multi-utilisateurs et multi-principaux avec des conflits inévitables, une asymétrie d'information et des contraintes de confidentialité. Dans ce travail, nous présentons la première étude systématique des agents LLM multi-utilisateurs. Nous commençons par formaliser l'interaction multi-utilisateur avec les agents LLM comme un problème décisionnel multi-principal, où un seul agent doit prendre en compte plusieurs utilisateurs ayant des intérêts potentiellement conflictuels et des défis associés. Nous introduisons ensuite un protocole d'interaction multi-utilisateur unifié et concevons trois scénarios de test de stress ciblés pour évaluer les capacités des LLM actuels en matière de suivi des instructions, de préservation de la confidentialité et de coordination. Nos résultats révèlent des lacunes systématiques : les LLM de pointe échouent fréquemment à maintenir une priorisation stable face à des objectifs utilisateurs conflictuels, présentent des violations croissantes de la confidentialité lors d'interactions multi-tours, et souffrent de goulots d'étranglement en efficacité lorsque la coordination nécessite une collecte d'information itérative.
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.