Spec Kit Agents: Contextgebaseerde Agent Workflows
Spec Kit Agents: Context-Grounded Agentic Workflows
April 7, 2026
Auteurs: Pardis Taghavi, Santosh Bhavani
cs.AI
Samenvatting
Specificatiegestuurde ontwikkeling (SDD) met AI-codeeragents biedt een gestructureerde workflow, maar agents blijven vaak "contextblind" in grote, evoluerende repositories, wat leidt tot gehallucineerde API's en architectuurschendingen. Wij presenteren Spec Kit Agents, een multi-agent SDD-pijplijn (met PM- en ontwikkelaarsrollen) die fase-specifieke, context-verankerende hooks toevoegt. Alleen-lezen probeerhooks verankeren elke fase (Specificeren, Plannen, Taken, Implementeren) in repositorybewijs, terwijl validatiehooks tussenproducten controleren tegen de omgeving. Wij evalueren 128 runs met 32 features verspreid over vijf repositories. Context-verankerende hooks verbeteren de beoordeelde kwaliteit met +0,15 op een 1-5 samengestelde LLM-als-rechter-score (+3,0 procent van de volledige score; Wilcoxon signed-rank, p < 0,05) bij behoud van 99,7-100 procent repository-level testcompatibiliteit. Wij evalueren het framework verder op SWE-bench Lite, waar augmentatiehooks de baseline met 1,7 procent verbeteren en een Pass@1 van 58,2 procent behalen.
English
Spec-driven development (SDD) with AI coding agents provides a structured workflow, but agents often remain "context blind" in large, evolving repositories, leading to hallucinated APIs and architectural violations. We present Spec Kit Agents, a multi-agent SDD pipeline (with PM and developer roles) that adds phase-level, context-grounding hooks. Read-only probing hooks ground each stage (Specify, Plan, Tasks, Implement) in repository evidence, while validation hooks check intermediate artifacts against the environment. We evaluate 128 runs covering 32 features across five repositories. Context-grounding hooks improve judged quality by +0.15 on a 1-5 composite LLM-as-judge score (+3.0 percent of the full score; Wilcoxon signed-rank, p < 0.05) while maintaining 99.7-100 percent repository-level test compatibility. We further evaluate the framework on SWE-bench Lite, where augmentation hooks improve baseline by 1.7 percent, achieving 58.2 percent Pass@1.