StarCoder 2 et The Stack v2 : La Nouvelle GénérationStarCoder 2 and The Stack v2: The Next Generation
Le projet BigCode, une collaboration scientifique ouverte axée sur le développement responsable de grands modèles de langage pour le code (Code LLMs), présente StarCoder2. En partenariat avec Software Heritage (SWH), nous construisons The Stack v2 à partir des biens communs numériques de leur archive de code source. En plus des dépôts SWH couvrant 619 langages de programmation, nous sélectionnons soigneusement d'autres sources de données de haute qualité, telles que les pull requests GitHub, les notebooks Kaggle et la documentation de code. Cela aboutit à un ensemble d'entraînement 4 fois plus grand que le premier jeu de données StarCoder. Nous entraînons les modèles StarCoder2 avec 3B, 7B et 15B de paramètres sur 3,3 à 4,3 billions de tokens et les évaluons de manière approfondie sur un ensemble complet de benchmarks pour Code LLM. Nous constatons que notre petit modèle, StarCoder2-3B, surpasse d'autres Code LLM de taille similaire sur la plupart des benchmarks, et dépasse également StarCoderBase-15B. Notre grand modèle, StarCoder2-15B, surpasse significativement d'autres modèles de taille comparable. De plus, il égale ou dépasse CodeLlama-34B, un modèle plus de deux fois plus grand. Bien que DeepSeekCoder-33B soit le modèle le plus performant pour la complétion de code dans les langages à ressources élevées, nous constatons que StarCoder2-15B le surpasse sur les benchmarks de raisonnement mathématique et de code, ainsi que sur plusieurs langages à faibles ressources. Nous rendons les poids du modèle disponibles sous une licence OpenRAIL et assurons une transparence totale concernant les données d'entraînement en publiant les identifiants persistants SoftWare Heritage (SWHIDs) des données de code source.