SkVM: 모든 환경에서 효율적인 실행을 위한 스킬 컴파일
SkVM: Compiling Skills for Efficient Execution Everywhere
April 6, 2026
저자: Le Chen, Erhu Feng, Yubin Xia, Haibo Chen
cs.AI
초록
LLM 에이전트는 점차 재사용 가능한 구성 단위로서 스킬을 채택하고 있습니다. 다양한 에이전트 플랫폼에서 스킬이 공유되지만, 현재 시스템은 이를 원시 컨텍스트(raw context)로 취급하여 동일한 스킬이 다른 에이전트에 대해 일관되지 않게 동작하는 문제를 야기합니다. 이러한 취약성은 스킬의 이식성과 실행 효율성을 저해합니다.
이 문제를 해결하기 위해 우리는 118,000개의 스킬을 분석하고 전통적인 컴파일러 설계에서 영감을 얻었습니다. 우리는 스킬을 코드로, LLM을 이기종 프로세서로 간주합니다. 이식성을 실현 가능하게 만들기 위해 스킬의 요구 사항을 일련의 기본 기능(Primitive Capability)으로 분해하고, 각 모델-하네스(Model-Harness) 조합이 이를 얼마나 잘 지원하는지 측정합니다. 이러한 기능 프로필을 바탕으로 우리는 이식적이고 효율적인 스킬 실행을 위해 설계된 컴파일 및 런타임 시스템인 SkVM을 제안합니다. 컴파일 타임에 SkVM은 기능 기반 컴파일, 환경 바인딩, 동시성 추출을 수행합니다. 런타임에는 성능 최적화를 위해 JIT 코드 고형화(Code Solidification) 및 적응형 재컴파일을 적용합니다.
우리는 다양한 규모의 8개 LLM과 3가지 에이전트 하네스, SkillsBench 및 대표적인 스킬 작업을 대상으로 SkVM을 평가했습니다. 결과는 SkVM이 서로 다른 모델과 환경에서 작업 완료율을 크게 향상시키면서 토큰 소비를 최대 40%까지 줄임을 보여줍니다. 성능 측면에서 SkVM은 향상된 병렬성을 통해 최대 3.2배의 속도 향상을 달성했으며, 코드 고형화를 통해 19-50배의 지연 시간 감소를 이루었습니다.
English
LLM agents increasingly adopt skills as a reusable unit of composition. While skills are shared across diverse agent platforms, current systems treat them as raw context, causing the same skill to behave inconsistently for different agents. This fragility undermines skill portability and execution efficiency.
To address this challenge, we analyze 118,000 skills and draw inspiration from traditional compiler design. We treat skills as code and LLMs as heterogeneous processors. To make portability actionable, we decompose a skill's requirements into a set of primitive capabilities, and measure how well each model-harness pair supports them. Based on these capability profiles, we propose SkVM, a compilation and runtime system designed for portable and efficient skill execution. At compile time, SkVM performs capability-based compilation, environment binding, and concurrency extraction. At runtime, SkVM applies JIT code solidification and adaptive recompilation for performance optimization.
We evaluate SkVM across eight LLMs of varying scales and three agent harnesses, covering SkillsBench and representative skill tasks. Results demonstrate that SkVM significantly improves task completion rates across different models and environments while reducing token consumption by up to 40%. In terms of performance, SkVM achieves up to 3.2x speedup with enhanced parallelism, and 19-50x latency reduction through code solidification.