ChatPaper.aiChatPaper

Spec Kit Agenti: Flussi di Lavoro Agenti Basati sul Contesto

Spec Kit Agents: Context-Grounded Agentic Workflows

April 7, 2026
Autori: Pardis Taghavi, Santosh Bhavani
cs.AI

Abstract

Lo sviluppo guidato dalle specifiche (SDD) con agenti di codifica IA fornisce un flusso di lavoro strutturato, ma gli agenti spesso rimangono "ciechi al contesto" in repository ampi ed evolutivi, portando a API allucinate e violazioni architetturali. Presentiamo Spec Kit Agents, una pipeline SDD multi-agente (con ruoli di PM e sviluppatore) che aggiunge hook di ancoraggio contestuale a livello di fase. Gli hook di esplorazione in sola lettura ancorano ogni fase (Specifica, Pianificazione, Attività, Implementazione) alle evidenze del repository, mentre gli hook di validazione verificano gli artefatti intermedi rispetto all'ambiente. Valutiamo 128 esecuzioni relative a 32 funzionalità in cinque repository. Gli hook di ancoraggio contestuale migliorano la qualità giudicata di +0,15 su un punteggio composito LLM-as-judge da 1 a 5 (+3,0 percento del punteggio totale; Wilcoxon signed-rank, p < 0,05) mantenendo una compatibilità con i test a livello di repository del 99,7-100 percento. Valutiamo ulteriormente il framework su SWE-bench Lite, dove gli hook di potenziamento migliorano il baseline dell'1,7 percento, raggiungendo il 58,2 percento di Pass@1.
English
Spec-driven development (SDD) with AI coding agents provides a structured workflow, but agents often remain "context blind" in large, evolving repositories, leading to hallucinated APIs and architectural violations. We present Spec Kit Agents, a multi-agent SDD pipeline (with PM and developer roles) that adds phase-level, context-grounding hooks. Read-only probing hooks ground each stage (Specify, Plan, Tasks, Implement) in repository evidence, while validation hooks check intermediate artifacts against the environment. We evaluate 128 runs covering 32 features across five repositories. Context-grounding hooks improve judged quality by +0.15 on a 1-5 composite LLM-as-judge score (+3.0 percent of the full score; Wilcoxon signed-rank, p < 0.05) while maintaining 99.7-100 percent repository-level test compatibility. We further evaluate the framework on SWE-bench Lite, where augmentation hooks improve baseline by 1.7 percent, achieving 58.2 percent Pass@1.
PDF42April 18, 2026