SkCC: Compilación Portátil y Segura de Habilidades para Agentes de LLM Multiplataforma
SkCC: Portable and Secure Skill Compilation for Cross-Framework LLM Agents
May 5, 2026
Autores: Yipeng Ouyang, Yi Xiao, Yuhao Gu, Xianwei Zhang
cs.AI
Resumen
Los agentes LLM han evolucionado hacia sistemas autónomos para la ejecución de tareas complejas, con la especificación SKILL.md emergiendo como estándar de facto para encapsular capacidades de agentes. Sin embargo, persiste un cuello de botella crítico: distintos marcos de trabajo para agentes muestran sensibilidades marcadamente diferentes al formato de instrucciones, causando variaciones de rendimiento de hasta el 40%, mientras que casi todas las habilidades existen como una única versión en Markdown independiente del formato. La reescritura manual por plataforma genera una carga de mantenimiento insostenible, y auditorías previas han revelado que más de un tercio de las habilidades comunitarias contienen vulnerabilidades de seguridad. Para abordar esto, presentamos SkCC, un marco de compilación que introduce diseño clásico de compiladores en el desarrollo de habilidades para agentes. En su núcleo, SkIR - una representación intermedia fuertemente tipada - desacopla la semántica de las habilidades del formato específico de cada plataforma, permitiendo despliegue portable entre marcos de trabajo heterogéneos. Alrededor de esta RI, un Analizador en tiempo de compilación aplica restricciones de seguridad mediante Anti-Skill Injection antes del despliegue. A través de una canalización de cuatro fases, SkCC reduce la complejidad de adaptación de O(m × n) a O(m + n). Experimentos en SkillsBench demuestran que las habilidades compiladas superan consistentemente a sus contrapartes originales, mejorando tasas de aprobación del 21.1% al 33.3% en Claude Code y del 35.1% al 48.7% en Kimi CLI, mientras logran latencias de compilación menores a 10ms, una tasa de activación proactiva de seguridad del 94.8%, y ahorros de tokens en ejecución entre 10-46% en distintas plataformas.
English
LLM-Agents have evolved into autonomous systems for complex task execution, with the SKILL.md specification emerging as a de facto standard for encapsulating agent capabilities. However, a critical bottleneck remains: different agent frameworks exhibit starkly different sensitivities to prompt formatting, causing up to 40% performance variation, yet nearly all skills exist as a single, format-agnostic Markdown version. Manual per-platform rewriting creates an unsustainable maintenance burden, while prior audits have found that over one third of community skills contain security vulnerabilities. To address this, we present SkCC, a compilation framework that introduces classical compiler design into agent skill development. At its core, SkIR - a strongly-typed intermediate representation - decouples skill semantics from platform-specific formatting, enabling portable deployment across heterogeneous agent frameworks. Around this IR, a compile-time Analyzer enforces security constraints via Anti-Skill Injection before deployment. Through a four-phase pipeline, SkCC reduces adaptation complexity from O(m times n) to O(m + n). Experiments on SkillsBench demonstrate that compiled skills consistently outperform their original counterparts, improving pass rates from 21.1% to 33.3% on Claude Code and from 35.1% to 48.7% on Kimi CLI, while achieving sub-10ms compilation latency, a 94.8% proactive security trigger rate, and 10-46% runtime token savings across platforms.