Tests als Prompt: Ein Testgetriebener Entwicklungs-Benchmark für die Codegenerierung mit LLMs
Tests as Prompt: A Test-Driven-Development Benchmark for LLM Code Generation
May 13, 2025
papers.authors: Yi Cui
cs.AI
papers.abstract
Wir stellen WebApp1K vor, einen neuartigen Benchmark zur Bewertung großer Sprachmodelle (LLMs) in testgetriebenen Entwicklungsaufgaben (TDD), bei denen Testfälle sowohl als Prompt als auch zur Überprüfung der Codegenerierung dienen. Im Gegensatz zu traditionellen Ansätzen, die sich auf natürliche Sprachprompts verlassen, betont unser Benchmark die Fähigkeit von LLMs, Funktionalität direkt aus Testfällen zu interpretieren und zu implementieren, was realen Softwareentwicklungspraktiken entspricht. Der Benchmark umfasst 1000 vielfältige Herausforderungen aus 20 Anwendungsdomänen und bewertet LLMs hinsichtlich ihrer Fähigkeit, kompakten, funktionalen Code unter den Einschränkungen von Kontextlänge und Multi-Feature-Komplexität zu generieren. Unsere Ergebnisse zeigen, dass die Befolgung von Anweisungen und In-Context-Lernen entscheidende Fähigkeiten für den TDD-Erfolg sind, die die Bedeutung allgemeiner Programmierkenntnisse oder Vorwissen übertreffen. Durch eine umfassende Bewertung von 19 führenden Modellen decken wir Leistungsengpässe auf, wie etwa den Verlust von Anweisungen in langen Prompts, und bieten eine detaillierte Fehleranalyse, die mehrere Ursachen abdeckt. Diese Arbeit unterstreicht den praktischen Nutzen von TDD-spezifischen Benchmarks und legt die Grundlage für die Weiterentwicklung der Fähigkeiten von LLMs in rigorosen, anwendungsgetriebenen Codierungsszenarien.
English
We introduce WebApp1K, a novel benchmark for evaluating large language models
(LLMs) in test-driven development (TDD) tasks, where test cases serve as both
prompt and verification for code generation. Unlike traditional approaches
relying on natural language prompts, our benchmark emphasizes the ability of
LLMs to interpret and implement functionality directly from test cases,
reflecting real-world software development practices. Comprising 1000 diverse
challenges across 20 application domains, the benchmark evaluates LLMs on their
ability to generate compact, functional code under the constraints of context
length and multi-feature complexity. Our findings highlight instruction
following and in-context learning as critical capabilities for TDD success,
surpassing the importance of general coding proficiency or pretraining
knowledge. Through comprehensive evaluation of 19 frontier models, we reveal
performance bottlenecks, such as instruction loss in long prompts, and provide
a detailed error analysis spanning multiple root causes. This work underscores
the practical value of TDD-specific benchmarks and lays the foundation for
advancing LLM capabilities in rigorous, application-driven coding scenarios.