Тесты как промпт: эталонный набор для разработки через тестирование при генерации кода с использованием языковых моделей
Tests as Prompt: A Test-Driven-Development Benchmark for LLM Code Generation
May 13, 2025
Авторы: Yi Cui
cs.AI
Аннотация
Мы представляем WebApp1K — новый эталонный тест для оценки больших языковых моделей (LLM) в задачах разработки через тестирование (TDD), где тестовые случаи служат одновременно как запросом, так и проверкой для генерации кода. В отличие от традиционных подходов, основанных на естественно-языковых запросах, наш эталонный тест подчеркивает способность LLM интерпретировать и реализовывать функциональность непосредственно из тестовых случаев, что отражает реальные практики разработки программного обеспечения. Состоящий из 1000 разнообразных задач, охватывающих 20 предметных областей, эталонный тест оценивает способность LLM генерировать компактный, функциональный код с учетом ограничений на длину контекста и сложность множества функций. Наши результаты подчеркивают, что следование инструкциям и обучение в контексте являются критически важными способностями для успеха в TDD, превосходя по значимости общую компетентность в программировании или предварительные знания. В ходе всесторонней оценки 19 передовых моделей мы выявили узкие места в производительности, такие как потеря инструкций в длинных запросах, и провели детальный анализ ошибок, охватывающий множество корневых причин. Эта работа подчеркивает практическую ценность эталонных тестов, специфичных для TDD, и закладывает основу для развития возможностей LLM в строгих, прикладных сценариях программирования.
English
We introduce WebApp1K, a novel benchmark for evaluating large language models
(LLMs) in test-driven development (TDD) tasks, where test cases serve as both
prompt and verification for code generation. Unlike traditional approaches
relying on natural language prompts, our benchmark emphasizes the ability of
LLMs to interpret and implement functionality directly from test cases,
reflecting real-world software development practices. Comprising 1000 diverse
challenges across 20 application domains, the benchmark evaluates LLMs on their
ability to generate compact, functional code under the constraints of context
length and multi-feature complexity. Our findings highlight instruction
following and in-context learning as critical capabilities for TDD success,
surpassing the importance of general coding proficiency or pretraining
knowledge. Through comprehensive evaluation of 19 frontier models, we reveal
performance bottlenecks, such as instruction loss in long prompts, and provide
a detailed error analysis spanning multiple root causes. This work underscores
the practical value of TDD-specific benchmarks and lays the foundation for
advancing LLM capabilities in rigorous, application-driven coding scenarios.Summary
AI-Generated Summary