ChatPaper.aiChatPaper

SkVM: あらゆる環境で効率的に実行するためのスキルコンパイル

SkVM: Compiling Skills for Efficient Execution Everywhere

April 6, 2026
著者: Le Chen, Erhu Feng, Yubin Xia, Haibo Chen
cs.AI

要旨

LLMエージェントは、再利用可能な構成単位としてのスキルをますます採用している。スキルは様々なエージェントプラットフォーム間で共有されるが、現在のシステムはスキルを生のコンテキストとして扱うため、同じスキルが異なるエージェント間で一貫しない動作を示す。この脆弱性はスキルの移植性と実行効率を損なう。 この課題に対処するため、我々は118,000のスキルを分析し、従来のコンパイラ設計から着想を得た。スキルをコードとして、LLMを異種プロセッサとして扱う。移植性を実現可能にするため、スキルの要求事項を一連のプリミティブ能力に分解し、各モデルとハーネスの組み合わせがそれらをどの程度サポートするかを測定する。これらの能力プロファイルに基づき、我々は移植性と効率的なスキル実行のために設計されたコンパイル及びランタイムシステムSkVMを提案する。コンパイル時には、SkVMは能力ベースのコンパイル、環境バインディング、並行性抽出を実行する。ランタイム時には、SkVMは性能最適化のためにJITコード固化と適応的再コンパイルを適用する。 様々な規模の8つのLLMと3つのエージェントハーネス、SkillsBenchおよび代表的なスキルタスクを用いてSkVMを評価した。結果は、SkVMが異なるモデルと環境にわたってタスク完了率を大幅に改善し、トークン消費を最大40%削減することを示す。性能面では、SkVMは強化された並列処理により最大3.2倍の高速化を達成し、コード固化により19〜50倍のレイテンシ削減を実現する。
English
LLM agents increasingly adopt skills as a reusable unit of composition. While skills are shared across diverse agent platforms, current systems treat them as raw context, causing the same skill to behave inconsistently for different agents. This fragility undermines skill portability and execution efficiency. To address this challenge, we analyze 118,000 skills and draw inspiration from traditional compiler design. We treat skills as code and LLMs as heterogeneous processors. To make portability actionable, we decompose a skill's requirements into a set of primitive capabilities, and measure how well each model-harness pair supports them. Based on these capability profiles, we propose SkVM, a compilation and runtime system designed for portable and efficient skill execution. At compile time, SkVM performs capability-based compilation, environment binding, and concurrency extraction. At runtime, SkVM applies JIT code solidification and adaptive recompilation for performance optimization. We evaluate SkVM across eight LLMs of varying scales and three agent harnesses, covering SkillsBench and representative skill tasks. Results demonstrate that SkVM significantly improves task completion rates across different models and environments while reducing token consumption by up to 40%. In terms of performance, SkVM achieves up to 3.2x speedup with enhanced parallelism, and 19-50x latency reduction through code solidification.
PDF31April 17, 2026