SWE-rebench V2: Coleção de Tarefas de Engenharia de Software em Escala e Independente de Linguagem
SWE-rebench V2: Language-Agnostic SWE Task Collection at Scale
February 27, 2026
Autores: Ibragim Badertdinov, Maksim Nekrashevich, Anton Shevtsov, Alexander Golubev
cs.AI
Resumo
Os agentes de engenharia de software (SWE) estão a melhorar rapidamente, com os ganhos recentes a serem maioritariamente impulsionados pela aprendizagem por reforço (RL). No entanto, o treino de RL é limitado pela escassez de coleções de tarefas em grande escala com ambientes de execução reproduzíveis e conjuntos de testes fiáveis. Embora tenham surgido cada vez mais benchmarks, os conjuntos de dados adequados para treino permanecem limitados em escala e diversidade, ou frequentemente visam um conjunto limitado de ecossistemas de linguagens de alto recurso. Apresentamos o SWE-rebench V2, um pipeline automatizado e agnóstico à linguagem para recolher tarefas executáveis de SWE do mundo real e construir ambientes de treino de RL em escala. O pipeline sintetiza procedimentos de instalação e teste específicos do repositório através de um agente de configuração interativo, e filtra instâncias inválidas usando um conjunto de juízes LLM, validados contra anotações do SWE-bench verificadas por humanos. Utilizando este pipeline, construímos um conjunto de dados com mais de 32.000 tarefas abrangendo 20 linguagens e mais de 3.600 repositórios, com imagens pré-construídas para execução reproduzível. Para escalar ainda mais os dados de treino, disponibilizamos adicionalmente mais de 120.000 tarefas com instruções de instalação, testes de "falha-para-êxito" e metadados ricos, onde o enunciado do problema é gerado com base na descrição original do pull request. Validamos as instâncias recolhidas através de um estudo de diagnóstico que cobre um subconjunto de tarefas em cinco linguagens de programação em sete modelos populares, e fornecemos metadados a nível de instância que sinalizam fatores de confusão comuns, como testes excessivamente restritivos e descrições pouco específicas. Disponibilizamos os conjuntos de dados, o código de recolha e execução, e os artefactos associados para permitir o treino em grande escala de agentes SWE em diversas linguagens e repositórios.
English
Software engineering agents (SWE) are improving rapidly, with recent gains largely driven by reinforcement learning (RL). However, RL training is constrained by the scarcity of large-scale task collections with reproducible execution environments and reliable test suites. Although a growing number of benchmarks have emerged, datasets suitable for training remain limited in scale and diversity or often target a limited set of high-resource language ecosystems. We introduce SWE-rebench V2, a language-agnostic automated pipeline for harvesting executable real-world SWE tasks and constructing RL training environments at scale. The pipeline synthesizes repository-specific installation and test procedures via an interactive setup agent, and filters unsound instances using an ensemble of LLM judges, validated against human-verified SWE-bench annotations. Using this pipeline, we construct a dataset of 32,000+ tasks spanning 20 languages and 3,600+ repositories, with pre-built images for reproducible execution. To further scale training data, we additionally release 120,000+ tasks with installation instructions, fail-to-pass tests and rich metadata, where the problem statement is generated based on the original pull request description. We validate the collected instances through a diagnostic study that covers a subset of tasks in five programming languages across seven popular models, and provide instance-level metadata that flags common confounders such as overly restrictive tests and underspecified descriptions. We release the datasets, the collection and execution code, and associated artifacts to enable large-scale training of SWE agents across diverse languages and repositories.