ChatPaper.aiChatPaper

Agenti di Modelli Linguistici di Grande Dimensione Multi-Utente

Multi-User Large Language Model Agents

March 19, 2026
Autori: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI

Abstract

I modelli linguistici di grandi dimensioni (LLM) e gli agenti basati su LLM sono sempre più impiegati come assistenti nella pianificazione e nel processo decisionale, eppure la maggior parte dei sistemi esistenti è implicitamente ottimizzata per un paradigma di interazione a singolo principale, in cui il modello è progettato per soddisfare gli obiettivi di un utente dominante le cui istruzioni sono trattate come unica fonte di autorità e utilità. Tuttavia, man mano che vengono integrati nei flussi di lavoro di gruppo e negli strumenti organizzativi, è sempre più richiesto che servano più utenti simultaneamente, ciascuno con ruoli, preferenze e livelli di autorità distinti, portando a contesti multi-utente e multi-principale caratterizzati da conflitti inevitabili, asimmetria informativa e vincoli di privacy. In questo lavoro, presentiamo il primo studio sistematico sugli agenti LLM multi-utente. Iniziamo formalizzando l'interazione multi-utente con gli agenti LLM come un problema decisionale multi-principale, in cui un singolo agente deve tenere conto di più utenti con interessi potenzialmente conflittuali e delle relative sfide. Introduciamo quindi un protocollo di interazione multi-utente unificato e progettiamo tre scenari mirati di stress-test per valutare le capacità degli LLM attuali nel seguire le istruzioni, preservare la privacy e coordinarsi. I nostri risultati rivelano lacune sistematiche: gli LLM all'avanguardia falliscono frequentemente nel mantenere una prioritizzazione stabile sotto obiettivi utente conflittuali, mostrano violazioni della privacy crescenti nelle interazioni multi-turno e soffrono di colli di bottiglia nell'efficienza quando il coordinamento richiede una raccolta iterativa di informazioni.
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.
PDF133April 14, 2026