ChatPaper.aiChatPaper

Многопользовательские агенты на основе больших языковых моделей

Multi-User Large Language Model Agents

March 19, 2026
Авторы: Shu Yang, Shenzhe Zhu, Hao Zhu, José Ramón Enríquez, Di Wang, Alex Pentland, Michiel A. Bakker, Jiaxin Pei
cs.AI

Аннотация

Крупные языковые модели (LLM) и агенты на их основе все чаще используются в качестве помощников при планировании и принятии решений, однако большинство существующих систем неявно оптимизированы для парадигмы взаимодействия с единственным принципалом, в рамках которой модель предназначена для достижения целей одного доминирующего пользователя, чьи инструкции рассматриваются как единственный источник авторитета и полезности. Однако по мере их интеграции в командные рабочие процессы и организационные инструменты от них все чаще требуется одновременное обслуживание нескольких пользователей, каждый из которых обладает уникальными ролями, предпочтениями и уровнями полномочий, что приводит к многопользовательским, многопринципальным средам с неизбежными конфликтами, асимметрией информации и ограничениями конфиденциальности. В данной работе мы представляем первое систематическое исследование многопользовательских LLM-агентов. Мы начинаем с формализации многопользовательского взаимодействия с LLM-агентами как задачи многопринципального принятия решений, в которой единый агент должен учитывать интересы множества пользователей с потенциально конфликтующими интересами и сопутствующими проблемами. Затем мы вводим унифицированный протокол многопользовательского взаимодействия и разрабатываем три целевых сценария стресс-тестирования для оценки текущих возможностей LLM в следовании инструкциям, обеспечении конфиденциальности и координации. Наши результаты выявляют системные пробелы: передовые LLM часто не способны сохранять стабильные приоритеты при конфликтующих целях пользователей, демонстрируют учащающиеся нарушения конфиденциальности в многоходовых взаимодействиях и страдают от узких мест эффективности, когда координация требует итеративного сбора информации.
English
Large language models (LLMs) and LLM-based agents are increasingly deployed as assistants in planning and decision making, yet most existing systems are implicitly optimized for a single-principal interaction paradigm, in which the model is designed to satisfy the objectives of one dominant user whose instructions are treated as the sole source of authority and utility. However, as they are integrated into team workflows and organizational tools, they are increasingly required to serve multiple users simultaneously, each with distinct roles, preferences, and authority levels, leading to multi-user, multi-principal settings with unavoidable conflicts, information asymmetry, and privacy constraints. In this work, we present the first systematic study of multi-user LLM agents. We begin by formalizing multi-user interaction with LLM agents as a multi-principal decision problem, where a single agent must account for multiple users with potentially conflicting interests and associated challenges. We then introduce a unified multi-user interaction protocol and design three targeted stress-testing scenarios to evaluate current LLMs' capabilities in instruction following, privacy preservation, and coordination. Our results reveal systematic gaps: frontier LLMs frequently fail to maintain stable prioritization under conflicting user objectives, exhibit increasing privacy violations over multi-turn interactions, and suffer from efficiency bottlenecks when coordination requires iterative information gathering.
PDF133April 14, 2026