ChatPaper.aiChatPaper

Compétences des agents dans la nature : une étude empirique des vulnérabilités de sécurité à grande échelle

Agent Skills in the Wild: An Empirical Study of Security Vulnerabilities at Scale

January 15, 2026
papers.authors: Yi Liu, Weizhe Wang, Ruitao Feng, Yao Zhang, Guangquan Xu, Gelei Deng, Yuekang Li, Leo Zhang
cs.AI

papers.abstract

L'essor des frameworks d'agents IA a introduit les compétences d'agents (skills), des modules modulaires contenant des instructions et du code exécutable permettant d'étendre dynamiquement les capacités des agents. Bien que cette architecture permette une personnalisation puissante, les compétences s'exécutent avec une confiance implicite et un contrôle minimal, créant une surface d'attaque significative mais non caractérisée. Nous réalisons la première analyse de sécurité empirique à grande échelle de cet écosystème émergent, collectant 42 447 compétences sur deux places de marché majeures et en analysant systématiquement 31 132 à l'aide de SkillScan, un cadre de détection multi-étapes intégrant l'analyse statique et une classification sémantique basée sur les LLM. Nos résultats révèlent des risques de sécurité omniprésents : 26,1 % des compétences contiennent au moins une vulnérabilité, couvrant 14 schémas distincts répartis en quatre catégories : injection de prompt, exfiltration de données, escalade de privilèges et risques liés à la chaîne d'approvisionnement. L'exfiltration de données (13,3 %) et l'escalade de privilèges (11,8 %) sont les plus prévalentes, tandis que 5,2 % des compétences présentent des schémas de haute gravité suggérant fortement une intention malveillante. Nous constatons que les compétences regroupant des scripts exécutables sont 2,12 fois plus susceptibles de contenir des vulnérabilités que les compétences basées uniquement sur des instructions (RC=2,12, p<0,001). Nos contributions incluent : (1) une taxonomie de vulnérabilités fondée sur 8 126 compétences vulnérables, (2) une méthodologie de détection validée atteignant une précision de 86,7 % et un rappel de 82,5 %, et (3) un jeu de données ouvert et une boîte à outils de détection pour soutenir la recherche future. Ces résultats démontrent la nécessité urgente de systèmes d'autorisation basés sur les capacités et d'un contrôle de sécurité obligatoire avant que ce vecteur d'attaque ne soit davantage exploité.
English
The rise of AI agent frameworks has introduced agent skills, modular packages containing instructions and executable code that dynamically extend agent capabilities. While this architecture enables powerful customization, skills execute with implicit trust and minimal vetting, creating a significant yet uncharacterized attack surface. We conduct the first large-scale empirical security analysis of this emerging ecosystem, collecting 42,447 skills from two major marketplaces and systematically analyzing 31,132 using SkillScan, a multi-stage detection framework integrating static analysis with LLM-based semantic classification. Our findings reveal pervasive security risks: 26.1% of skills contain at least one vulnerability, spanning 14 distinct patterns across four categories: prompt injection, data exfiltration, privilege escalation, and supply chain risks. Data exfiltration (13.3%) and privilege escalation (11.8%) are most prevalent, while 5.2% of skills exhibit high-severity patterns strongly suggesting malicious intent. We find that skills bundling executable scripts are 2.12x more likely to contain vulnerabilities than instruction-only skills (OR=2.12, p<0.001). Our contributions include: (1) a grounded vulnerability taxonomy derived from 8,126 vulnerable skills, (2) a validated detection methodology achieving 86.7% precision and 82.5% recall, and (3) an open dataset and detection toolkit to support future research. These results demonstrate an urgent need for capability-based permission systems and mandatory security vetting before this attack vector is further exploited.
PDF31January 17, 2026