ChatPaper.aiChatPaper

Riesgos Emergentes de Inteligencia Social en Sistemas Multiagente Generativos

Emergent Social Intelligence Risks in Generative Multi-Agent Systems

March 29, 2026
Autores: Yue Huang, Yu Jiang, Wenjie Wang, Haomin Zhuang, Xiaonan Luo, Yuchen Ma, Zhangchen Xu, Zichen Chen, Nuno Moniz, Zinan Lin, Pin-Yu Chen, Nitesh V Chawla, Nouha Dziri, Huan Sun, Xiangliang Zhang
cs.AI

Resumen

Los sistemas multiagente compuestos por grandes modelos generativos están evolucionando rápidamente de prototipos de laboratorio a implementaciones en el mundo real, donde planifican conjuntamente, negocian y asignan recursos compartidos para resolver tareas complejas. Si bien estos sistemas prometen una escalabilidad y autonomía sin precedentes, su interacción colectiva también da lugar a modos de fallo que no pueden reducirse a agentes individuales. Por lo tanto, comprender estos riesgos emergentes es crucial. Aquí presentamos un estudio pionero de dicho riesgo multiagente emergente en flujos de trabajo que implican competencia por recursos compartidos (por ejemplo, recursos informáticos o cuota de mercado), colaboración secuencial con transferencia (donde los agentes posteriores solo ven los resultados de sus predecesores), agregación de decisiones colectivas, entre otros. En estos escenarios, observamos que dichos comportamientos grupales surgen con frecuencia en múltiples pruebas y en una amplia gama de condiciones de interacción, en lugar de como casos raros o patológicos. En particular, fenómenos como la coordinación similar a la colusión y la conformidad emergen con frecuencia no trivial bajo restricciones realistas de recursos, protocolos de comunicación y asignación de roles, reflejando patologías bien conocidas en las sociedades humanas a pesar de no recibir instrucciones explícitas. Además, estos riesgos no pueden prevenirse únicamente con las salvaguardas existentes a nivel de agente. Estos hallazgos exponen el lado oscuro de los sistemas multiagente inteligentes: un riesgo de inteligencia social donde los colectivos de agentes, a pesar de no recibir instrucciones para ello, reproducen espontáneamente patrones de fallo familiares de las sociedades humanas.
English
Multi-agent systems composed of large generative models are rapidly moving from laboratory prototypes to real-world deployments, where they jointly plan, negotiate, and allocate shared resources to solve complex tasks. While such systems promise unprecedented scalability and autonomy, their collective interaction also gives rise to failure modes that cannot be reduced to individual agents. Understanding these emergent risks is therefore critical. Here, we present a pioneer study of such emergent multi-agent risk in workflows that involve competition over shared resources (e.g., computing resources or market share), sequential handoff collaboration (where downstream agents see only predecessor outputs), collective decision aggregation, and others. Across these settings, we observe that such group behaviors arise frequently across repeated trials and a wide range of interaction conditions, rather than as rare or pathological cases. In particular, phenomena such as collusion-like coordination and conformity emerge with non-trivial frequency under realistic resource constraints, communication protocols, and role assignments, mirroring well-known pathologies in human societies despite no explicit instruction. Moreover, these risks cannot be prevented by existing agent-level safeguards alone. These findings expose the dark side of intelligent multi-agent systems: a social intelligence risk where agent collectives, despite no instruction to do so, spontaneously reproduce familiar failure patterns from human societies.
PDF411April 1, 2026