StarCoder 2 y The Stack v2: La Próxima GeneraciónStarCoder 2 and The Stack v2: The Next Generation
El proyecto BigCode, una colaboración científico-abierta centrada en el desarrollo responsable de Modelos de Lenguaje a Gran Escala para Código (Code LLMs), presenta StarCoder2. En colaboración con Software Heritage (SWH), construimos The Stack v2 sobre los bienes comunes digitales de su archivo de código fuente. Junto con los repositorios de SWH que abarcan 619 lenguajes de programación, seleccionamos cuidadosamente otras fuentes de datos de alta calidad, como solicitudes de extracción (pull requests) de GitHub, cuadernos de Kaggle y documentación de código. Esto resulta en un conjunto de entrenamiento 4 veces más grande que el primer conjunto de datos de StarCoder. Entrenamos los modelos StarCoder2 con 3B, 7B y 15B parámetros en 3.3 a 4.3 billones de tokens y los evaluamos exhaustivamente en un conjunto completo de benchmarks para Code LLMs. Descubrimos que nuestro modelo pequeño, StarCoder2-3B, supera a otros Code LLMs de tamaño similar en la mayoría de los benchmarks, y también supera a StarCoderBase-15B. Nuestro modelo grande, StarCoder2-15B, supera significativamente a otros modelos de tamaño comparable. Además, iguala o supera a CodeLlama-34B, un modelo más del doble de su tamaño. Aunque DeepSeekCoder-33B es el modelo con mejor rendimiento en la completación de código para lenguajes de alto recurso, encontramos que StarCoder2-15B lo supera en benchmarks de razonamiento matemático y de código, así como en varios lenguajes de bajo recurso. Hacemos disponibles los pesos del modelo bajo una licencia OpenRAIL y garantizamos la total transparencia respecto a los datos de entrenamiento mediante la publicación de los Identificadores Persistentes de Software Heritage (SWHIDs) de los datos de código fuente.