Pruebas como Prompt: Un Benchmark de Desarrollo Guiado por Pruebas para la Generación de Código con LLM
Tests as Prompt: A Test-Driven-Development Benchmark for LLM Code Generation
May 13, 2025
Autores: Yi Cui
cs.AI
Resumen
Presentamos WebApp1K, un nuevo punto de referencia para evaluar modelos de lenguaje de gran escala (LLMs) en tareas de desarrollo guiado por pruebas (TDD), donde los casos de prueba sirven tanto como indicación como verificación para la generación de código. A diferencia de los enfoques tradicionales que dependen de indicaciones en lenguaje natural, nuestro punto de referencia enfatiza la capacidad de los LLMs para interpretar e implementar funcionalidades directamente a partir de casos de prueba, reflejando prácticas reales de desarrollo de software. Compuesto por 1000 desafíos diversos en 20 dominios de aplicación, el punto de referencia evalúa la capacidad de los LLMs para generar código compacto y funcional bajo las restricciones de longitud de contexto y complejidad de múltiples características. Nuestros hallazgos destacan el seguimiento de instrucciones y el aprendizaje en contexto como capacidades críticas para el éxito en TDD, superando la importancia de la competencia general en codificación o el conocimiento previo. A través de una evaluación exhaustiva de 19 modelos de vanguardia, revelamos cuellos de botella en el rendimiento, como la pérdida de instrucciones en indicaciones largas, y proporcionamos un análisis detallado de errores que abarca múltiples causas raíz. Este trabajo subraya el valor práctico de los puntos de referencia específicos para TDD y sienta las bases para avanzar en las capacidades de los LLMs en escenarios de codificación rigurosos y orientados a aplicaciones.
English
We introduce WebApp1K, a novel benchmark for evaluating large language models
(LLMs) in test-driven development (TDD) tasks, where test cases serve as both
prompt and verification for code generation. Unlike traditional approaches
relying on natural language prompts, our benchmark emphasizes the ability of
LLMs to interpret and implement functionality directly from test cases,
reflecting real-world software development practices. Comprising 1000 diverse
challenges across 20 application domains, the benchmark evaluates LLMs on their
ability to generate compact, functional code under the constraints of context
length and multi-feature complexity. Our findings highlight instruction
following and in-context learning as critical capabilities for TDD success,
surpassing the importance of general coding proficiency or pretraining
knowledge. Through comprehensive evaluation of 19 frontier models, we reveal
performance bottlenecks, such as instruction loss in long prompts, and provide
a detailed error analysis spanning multiple root causes. This work underscores
the practical value of TDD-specific benchmarks and lays the foundation for
advancing LLM capabilities in rigorous, application-driven coding scenarios.Summary
AI-Generated Summary