Tests als Prompt: Een Test-Driven-Development Benchmark voor LLM Codegeneratie
Tests as Prompt: A Test-Driven-Development Benchmark for LLM Code Generation
May 13, 2025
Auteurs: Yi Cui
cs.AI
Samenvatting
We introduceren WebApp1K, een nieuwe benchmark voor het evalueren van grote taalmodellen (LLMs) in testgedreven ontwikkelings (TDD) taken, waarbij testgevallen zowel als prompt als verificatie dienen voor codegeneratie. In tegenstelling tot traditionele benaderingen die vertrouwen op natuurlijke taalprompts, benadrukt onze benchmark het vermogen van LLMs om functionaliteit direct vanuit testgevallen te interpreteren en te implementeren, wat echte softwareontwikkelingspraktijken weerspiegelt. De benchmark bestaat uit 1000 diverse uitdagingen verspreid over 20 toepassingsdomeinen en evalueert LLMs op hun vermogen om compacte, functionele code te genereren binnen de beperkingen van contextlengte en multifunctionele complexiteit. Onze bevindingen benadrukken het volgen van instructies en in-context leren als cruciale vaardigheden voor TDD-succes, die het belang van algemene codeervaardigheid of voorkennis overtreffen. Door een uitgebreide evaluatie van 19 toonaangevende modellen onthullen we prestatieknelpunten, zoals instructieverlies bij lange prompts, en bieden we een gedetailleerde foutenanalyse die meerdere oorzaken omvat. Dit werk onderstreept de praktische waarde van TDD-specifieke benchmarks en legt de basis voor het verbeteren van LLM-vaardigheden in rigoureuze, toepassingsgerichte coderingsscenario's.
English
We introduce WebApp1K, a novel benchmark for evaluating large language models
(LLMs) in test-driven development (TDD) tasks, where test cases serve as both
prompt and verification for code generation. Unlike traditional approaches
relying on natural language prompts, our benchmark emphasizes the ability of
LLMs to interpret and implement functionality directly from test cases,
reflecting real-world software development practices. Comprising 1000 diverse
challenges across 20 application domains, the benchmark evaluates LLMs on their
ability to generate compact, functional code under the constraints of context
length and multi-feature complexity. Our findings highlight instruction
following and in-context learning as critical capabilities for TDD success,
surpassing the importance of general coding proficiency or pretraining
knowledge. Through comprehensive evaluation of 19 frontier models, we reveal
performance bottlenecks, such as instruction loss in long prompts, and provide
a detailed error analysis spanning multiple root causes. This work underscores
the practical value of TDD-specific benchmarks and lays the foundation for
advancing LLM capabilities in rigorous, application-driven coding scenarios.Summary
AI-Generated Summary