ChatPaper.aiChatPaper

Agenti del Caos

Agents of Chaos

February 23, 2026
Autori: Natalie Shapira, Chris Wendler, Avery Yen, Gabriele Sarti, Koyena Pal, Olivia Floody, Adam Belfki, Alex Loftus, Aditya Ratan Jannali, Nikhil Prakash, Jasmine Cui, Giordano Rogers, Jannik Brinkmann, Can Rager, Amir Zur, Michael Ripa, Aruna Sankaranarayanan, David Atkinson, Rohit Gandikota, Jaden Fiotto-Kaufman, EunJeong Hwang, Hadas Orgad, P Sam Sahil, Negev Taglicht, Tomer Shabtay, Atai Ambus, Nitay Alon, Shiri Oron, Ayelet Gordon-Tapiero, Yotam Kaplan, Vered Shwartz, Tamar Rott Shaham, Christoph Riedl, Reuth Mirsky, Maarten Sap, David Manheim, Tomer Ullman, David Bau
cs.AI

Abstract

Riportiamo uno studio esplorativo di red-teaming su agenti autonomi basati su modelli linguistici, implementati in un ambiente di laboratorio live con memoria persistente, account email, accesso a Discord, file system ed esecuzione di shell. In un periodo di due settimane, venti ricercatori di IA hanno interagito con gli agenti in condizioni sia benigne che avversariali. Concentrandoci sui fallimenti emersi dall'integrazione di modelli linguistici con autonomia, uso di strumenti e comunicazione multi-parte, documentiamo undici casi di studio rappresentativi. I comportamenti osservati includono: conformità non autorizzata a non-proprietari, divulgazione di informazioni sensibili, esecuzione di azioni distruttive a livello di sistema, condizioni di denial-of-service, consumo incontrollato di risorse, vulnerabilità di spoofing dell'identità, propagazione di pratiche non sicure tra agenti e parziale acquisizione del controllo del sistema. In diversi casi, gli agenti hanno segnalato il completamento di un'attività mentre lo stato del sistema sottostante contraddiceva tali rapporti. Riportiamo anche alcuni tentativi falliti. I nostri risultati attestano l'esistenza di vulnerabilità rilevanti per la sicurezza, la privacy e la governance in scenari di implementazione realistici. Questi comportamenti sollevano questioni irrisolte riguardanti la responsabilità, l'autorità delegata e l'imputabilità di danni a valle, richiedendo un'urgente attenzione da parte di giuristi, policymaker e ricercatori di diverse discipline. Questo rapporto costituisce un contributo empirico iniziale a quel più ampio dibattito.
English
We report an exploratory red-teaming study of autonomous language-model-powered agents deployed in a live laboratory environment with persistent memory, email accounts, Discord access, file systems, and shell execution. Over a two-week period, twenty AI researchers interacted with the agents under benign and adversarial conditions. Focusing on failures emerging from the integration of language models with autonomy, tool use, and multi-party communication, we document eleven representative case studies. Observed behaviors include unauthorized compliance with non-owners, disclosure of sensitive information, execution of destructive system-level actions, denial-of-service conditions, uncontrolled resource consumption, identity spoofing vulnerabilities, cross-agent propagation of unsafe practices, and partial system takeover. In several cases, agents reported task completion while the underlying system state contradicted those reports. We also report on some of the failed attempts. Our findings establish the existence of security-, privacy-, and governance-relevant vulnerabilities in realistic deployment settings. These behaviors raise unresolved questions regarding accountability, delegated authority, and responsibility for downstream harms, and warrant urgent attention from legal scholars, policymakers, and researchers across disciplines. This report serves as an initial empirical contribution to that broader conversation.
PDF322March 28, 2026