Agentes de Modelos de Lenguaje Grandes Multi-Usuario
Multi-User Large Language Model Agents
March 19, 2026
Autores: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI
Resumen
Los modelos de lenguaje grandes (LLM) y los agentes basados en LLM se despliegan cada vez más como asistentes en la planificación y la toma de decisiones. Sin embargo, la mayoría de los sistemas existentes están optimizados implícitamente para un paradigma de interacción de único principal, en el que el modelo está diseñado para satisfacer los objetivos de un usuario dominante cuyas instrucciones se tratan como la única fuente de autoridad y utilidad. No obstante, a medida que se integran en flujos de trabajo en equipo y herramientas organizacionales, se requiere cada vez más que sirvan a múltiples usuarios simultáneamente, cada uno con roles, preferencias y niveles de autoridad distintos, lo que da lugar a entornos multi-usuario y multi-principal con conflictos inevitables, asimetría de información y restricciones de privacidad. En este trabajo, presentamos el primer estudio sistemático de agentes LLM multi-usuario. Comenzamos formalizando la interacción multi-usuario con agentes LLM como un problema de decisión multi-principal, donde un único agente debe dar cuenta de múltiples usuarios con intereses potencialmente conflictivos y desafíos asociados. Luego, introducimos un protocolo unificado de interacción multi-usuario y diseñamos tres escenarios específicos de prueba de estrés para evaluar las capacidades de los LLM actuales en el seguimiento de instrucciones, la preservación de la privacidad y la coordinación. Nuestros resultados revelan deficiencias sistemáticas: los LLM más avanzados fallan con frecuencia en mantener una priorización estable bajo objetivos de usuario conflictivos, exhiben un aumento de violaciones de la privacidad en interacciones multi-turno y sufren cuellos de botella de eficiencia cuando la coordinación requiere una recolección iterativa de información.
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.