ChatPaper.aiChatPaper

Mehrbenutzer-Agenten für große Sprachmodelle

Multi-User Large Language Model Agents

March 19, 2026
Autoren: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) und darauf basierende Agenten werden zunehmend als Assistenten für Planungs- und Entscheidungsprozesse eingesetzt. Dennoch sind die meisten bestehenden Systeme implizit auf ein Single-Prinzipial-Interaktionsparadigma optimiert, bei dem das Modell darauf ausgelegt ist, die Ziele eines dominanten Nutzers zu erfüllen, dessen Anweisungen als alleinige Autoritäts- und Nutzenquelle behandelt werden. Mit der Integration in Teamworkflows und organisatorische Tools müssen sie jedoch zunehmend mehrere Nutzer gleichzeitig bedienen, die jeweils über unterschiedliche Rollen, Präferenzen und Berechtigungsebenen verfügen. Dies führt zu Multi-User-, Multi-Prinzipial-Szenarien mit unvermeidlichen Konflikten, Informationsasymmetrien und Datenschutzbeschränkungen. In dieser Arbeit präsentieren wir die erste systematische Untersuchung von Multi-User-LLM-Agenten. Wir beginnen damit, die Multi-User-Interaktion mit LLM-Agenten als ein Multi-Prinzipial-Entscheidungsproblem zu formalisieren, bei dem ein einzelner Agent mehrere Nutzer mit potenziell konfligierenden Interessen und damit verbundenen Herausforderungen berücksichtigen muss. Anschließend führen wir ein einheitliches Multi-User-Interaktionsprotokoll ein und entwerfen drei gezielte Stresstest-Szenarien, um die Fähigkeiten aktueller LLMs in den Bereichen Befolgung von Anweisungen, Wahrung der Privatsphäre und Koordination zu bewerten. Unsere Ergebnisse zeigen systematische Defizite auf: Frontier-LLMs scheitern häufig daran, eine stabile Priorisierung unter konfligierenden Nutzerzielen aufrechtzuerhalten, zeigen zunehmende Datenschutzverletzungen über mehrere Interaktionsrunden hinweg und leiden unter Effizienzengpässen, wenn Koordination iterative Informationsbeschaffung erfordert.
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.
PDF133April 14, 2026