SWE-rebench V2: Colección de Tareas de Ingeniería de Software a Escala Independiente del Lenguaje
SWE-rebench V2: Language-Agnostic SWE Task Collection at Scale
February 27, 2026
Autores: Ibragim Badertdinov, Maksim Nekrashevich, Anton Shevtsov, Alexander Golubev
cs.AI
Resumen
Los agentes de ingeniería de software (SWE) están mejorando rápidamente, y las mejoras recientes han sido impulsadas en gran medida por el aprendizaje por refuerzo (RL). Sin embargo, el entrenamiento con RL está limitado por la escasez de colecciones de tareas a gran escala que cuenten con entornos de ejecución reproducibles y suites de pruebas confiables. Aunque han surgido cada vez más benchmarks, los conjuntos de datos adecuados para el entrenamiento siguen siendo limitados en escala y diversidad, o a menudo se centran en un conjunto limitado de ecosistemas de lenguajes de alto nivel. Presentamos SWE-rebench V2, una canalización automatizada independiente del lenguaje para recolectar tareas SWE ejecutables del mundo real y construir entornos de entrenamiento de RL a escala. La canalización sintetiza procedimientos de instalación y pruebas específicos de cada repositorio mediante un agente de configuración interactivo, y filtra las instancias no válidas utilizando un conjunto de modelos de lenguaje grandes (LLM) como jueces, validados frente a anotaciones de SWE-bench verificadas por humanos. Utilizando esta canalización, construimos un conjunto de datos de más de 32,000 tareas que abarcan 20 lenguajes y más de 3,600 repositorios, con imágenes preconstruidas para una ejecución reproducible. Para escalar aún más los datos de entrenamiento, adicionalmente publicamos más de 120,000 tareas con instrucciones de instalación, pruebas de tipo "falla-a-aprueba" y metadatos enriquecidos, donde el enunciado del problema se genera en base a la descripción original de la solicitud de extracción (pull request). Validamos las instancias recolectadas mediante un estudio de diagnóstico que cubre un subconjunto de tareas en cinco lenguajes de programación y siete modelos populares, y proporcionamos metadatos a nivel de instancia que marcan factores de confusión comunes, como pruebas excesivamente restrictivas y descripciones poco específicas. Publicamos los conjuntos de datos, el código de recolección y ejecución, y los artefactos asociados para permitir el entrenamiento a gran escala de agentes SWE en diversos lenguajes y repositorios.
English
Software engineering agents (SWE) are improving rapidly, with recent gains largely driven by reinforcement learning (RL). However, RL training is constrained by the scarcity of large-scale task collections with reproducible execution environments and reliable test suites. Although a growing number of benchmarks have emerged, datasets suitable for training remain limited in scale and diversity or often target a limited set of high-resource language ecosystems. We introduce SWE-rebench V2, a language-agnostic automated pipeline for harvesting executable real-world SWE tasks and constructing RL training environments at scale. The pipeline synthesizes repository-specific installation and test procedures via an interactive setup agent, and filters unsound instances using an ensemble of LLM judges, validated against human-verified SWE-bench annotations. Using this pipeline, we construct a dataset of 32,000+ tasks spanning 20 languages and 3,600+ repositories, with pre-built images for reproducible execution. To further scale training data, we additionally release 120,000+ tasks with installation instructions, fail-to-pass tests and rich metadata, where the problem statement is generated based on the original pull request description. We validate the collected instances through a diagnostic study that covers a subset of tasks in five programming languages across seven popular models, and provide instance-level metadata that flags common confounders such as overly restrictive tests and underspecified descriptions. We release the datasets, the collection and execution code, and associated artifacts to enable large-scale training of SWE agents across diverse languages and repositories.