Agenten-Fähigkeiten: Eine datengestützte Analyse von Claude-Fähigkeiten zur Erweiterung der Funktionalität großer Sprachmodelle
Agent Skills: A Data-Driven Analysis of Claude Skills for Extending Large Language Model Functionality
February 8, 2026
papers.authors: George Ling, Shanshan Zhong, Richard Huang
cs.AI
papers.abstract
Agent Skills erweitern LLM-Agenten um wiederverwendbare, programmähnliche Module, die Auslösebedingungen, prozedurale Logik und Werkzeuginteraktionen definieren. Da diese Skills in öffentlichen Marktplätzen zunehmen, ist unklar, welche Typen verfügbar sind, wie Nutzer sie annehmen und welche Risiken sie bergen. Um diese Fragen zu beantworten, führen wir eine datengestützte Analyse von 40.285 öffentlich gelisteten Skills eines großen Marktplatzes durch. Unsere Ergebnisse zeigen, dass die Veröffentlichung von Skills tendenziell in kurzen Schüben erfolgt, die Verschiebungen in der Aufmerksamkeit der Community nachvollziehen. Wir stellen außerdem fest, dass sich die Skill-Inhalte stark auf Software-Engineering-Workflows konzentrieren, während Informationsbeschaffung und Inhaltserstellung einen erheblichen Teil der Nutzung ausmachen. Über Inhalttrends hinaus decken wir ein ausgeprägtes Ungleichgewicht zwischen Angebot und Nachfrage in verschiedenen Kategorien auf und zeigen, dass die meisten Skills trotz einer schwerlastigen Längenverteilung innerhalb typischer Prompt-Budgets bleiben. Schließlich beobachten wir eine starke Homogenität des Ökosystems mit weitverbreiteter Redundanz auf Intent-Ebene und identifizieren nicht-triviale Sicherheitsrisiken, einschließlich Skills, die zustandsändernde oder systemweite Aktionen ermöglichen. Insgesamt liefern unsere Erkenntnisse eine quantitative Momentaufnahme von Agent Skills als aufstrebende Infrastrukturschicht für Agenten und informieren zukünftige Arbeiten zur Wiederverwendung, Standardisierung und sicherheitsbewussten Gestaltung von Skills.
English
Agent skills extend large language model (LLM) agents with reusable, program-like modules that define triggering conditions, procedural logic, and tool interactions. As these skills proliferate in public marketplaces, it is unclear what types are available, how users adopt them, and what risks they pose. To answer these questions, we conduct a large-scale, data-driven analysis of 40,285 publicly listed skills from a major marketplace. Our results show that skill publication tends to occur in short bursts that track shifts in community attention. We also find that skill content is highly concentrated in software engineering workflows, while information retrieval and content creation account for a substantial share of adoption. Beyond content trends, we uncover a pronounced supply-demand imbalance across categories, and we show that most skills remain within typical prompt budgets despite a heavy-tailed length distribution. Finally, we observe strong ecosystem homogeneity, with widespread intent-level redundancy, and we identify non-trivial safety risks, including skills that enable state-changing or system-level actions. Overall, our findings provide a quantitative snapshot of agent skills as an emerging infrastructure layer for agents and inform future work on skill reuse, standardization, and safety-aware design.