Agentes de Modelos de Linguagem de Grande Porte para Múltiplos Utilizadores
Multi-User Large Language Model Agents
March 19, 2026
Autores: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI
Resumo
Os modelos de linguagem de grande porte (LLMs) e os agentes baseados neles estão cada vez mais sendo implantados como assistentes em planejamento e tomada de decisões. No entanto, a maioria dos sistemas existentes é implicitamente otimizada para um paradigma de interação de único principal, no qual o modelo é projetado para satisfazer os objetivos de um usuário dominante, cujas instruções são tratadas como a única fonte de autoridade e utilidade. Contudo, à medida que são integrados em fluxos de trabalho em equipe e ferramentas organizacionais, eles são cada vez mais exigidos para atender múltiplos usuários simultaneamente, cada um com funções, preferências e níveis de autoridade distintos, resultando em ambientes multi-usuário e multi-principal com conflitos inevitáveis, assimetria de informação e restrições de privacidade. Neste trabalho, apresentamos o primeiro estudo sistemático de agentes de LLM para múltiplos usuários. Começamos por formalizar a interação multi-usuário com agentes de LLM como um problema de decisão multi-principal, onde um único agente deve considerar múltiplos usuários com interesses potencialmente conflitantes e os desafios associados. Em seguida, introduzimos um protocolo de interação multi-usuário unificado e projetamos três cenários direcionados de teste de estresse para avaliar as capacidades dos LLMs atuais em seguir instruções, preservar a privacidade e coordenar. Nossos resultados revelam lacunas sistemáticas: LLMs de ponta frequentemente falham em manter uma priorização estável sob objetivos de usuários conflitantes, exibem violações de privacidade crescentes ao longo de interações multi-turno e sofrem com gargalos de eficiência quando a coordenação requer uma coleta iterativa de informações.
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.