ChatPaper.aiChatPaper

Competenze degli Agenti in Ambiente Reale: Uno Studio Empirico sulle Vulnerabilità di Sicurezza su Larga Scala

Agent Skills in the Wild: An Empirical Study of Security Vulnerabilities at Scale

January 15, 2026
Autori: Yi Liu, Weizhe Wang, Ruitao Feng, Yao Zhang, Guangquan Xu, Gelei Deng, Yuekang Li, Leo Zhang
cs.AI

Abstract

L'ascesa dei framework di agenti IA ha introdotto le cosiddette "skill" (competenze) degli agenti, pacchetti modulari contenenti istruzioni e codice eseguibile che estendono dinamicamente le capacità degli agenti. Sebbene questa architettura consenta una potente personalizzazione, le skill vengono eseguite con un'implicita fiducia e una verifica minima, creando una superficie d'attacco significativa ma non ancora caratterizzata. Conduciamo la prima analisi di sicurezza empirica su larga scala di questo ecosistema emergente, raccogliendo 42.447 skill da due marketplace principali e analizzandone sistematicamente 31.132 utilizzando SkillScan, un framework di rilevamento multi-stadio che integra l'analisi statica con la classificazione semantica basata su LLM. I nostri risultati rivelano rischi per la sicurezza pervasivi: il 26,1% delle skill contiene almeno una vulnerabilità, che abbraccia 14 pattern distinti raggruppati in quattro categorie: prompt injection, esfiltrazione dei dati, escalation dei privilegi e rischi della supply chain. L'esfiltrazione dei dati (13,3%) e l'escalation dei privilegi (11,8%) sono le più prevalenti, mentre il 5,2% delle skill mostra pattern ad alta gravità che suggeriscono fortemente intenti malevoli. Rileviamo che le skill che includono script eseguibili hanno una probabilità 2,12 volte maggiore di contenere vulnerabilità rispetto alle skill composte da sole istruzioni (OR=2,12, p<0,001). I nostri contributi includono: (1) una tassonomia delle vulnerabilità fondata empiricamente, derivata dall'analisi di 8.126 skill vulnerabili, (2) una metodologia di rilevamento validata che raggiunge una precisione dell'86,7% e un recall dell'82,5%, e (3) un dataset aperto e un toolkit di rilevamento per supportare la ricerca futura. Questi risultati dimostrano l'urgente necessità di sistemi di autorizzazione basati sulle capacità e di controlli di sicurezza obbligatori prima che questo vettore d'attacco venga ulteriormente sfruttato.
English
The rise of AI agent frameworks has introduced agent skills, modular packages containing instructions and executable code that dynamically extend agent capabilities. While this architecture enables powerful customization, skills execute with implicit trust and minimal vetting, creating a significant yet uncharacterized attack surface. We conduct the first large-scale empirical security analysis of this emerging ecosystem, collecting 42,447 skills from two major marketplaces and systematically analyzing 31,132 using SkillScan, a multi-stage detection framework integrating static analysis with LLM-based semantic classification. Our findings reveal pervasive security risks: 26.1% of skills contain at least one vulnerability, spanning 14 distinct patterns across four categories: prompt injection, data exfiltration, privilege escalation, and supply chain risks. Data exfiltration (13.3%) and privilege escalation (11.8%) are most prevalent, while 5.2% of skills exhibit high-severity patterns strongly suggesting malicious intent. We find that skills bundling executable scripts are 2.12x more likely to contain vulnerabilities than instruction-only skills (OR=2.12, p<0.001). Our contributions include: (1) a grounded vulnerability taxonomy derived from 8,126 vulnerable skills, (2) a validated detection methodology achieving 86.7% precision and 82.5% recall, and (3) an open dataset and detection toolkit to support future research. These results demonstrate an urgent need for capability-based permission systems and mandatory security vetting before this attack vector is further exploited.
PDF52February 8, 2026