StarCoder 2 et The Stack v2 : La Nouvelle Génération
StarCoder 2 and The Stack v2: The Next Generation
February 29, 2024
Auteurs: Anton Lozhkov, Raymond Li, Loubna Ben Allal, Federico Cassano, Joel Lamy-Poirier, Nouamane Tazi, Ao Tang, Dmytro Pykhtar, Jiawei Liu, Yuxiang Wei, Tianyang Liu, Max Tian, Denis Kocetkov, Arthur Zucker, Younes Belkada, Zijian Wang, Qian Liu, Dmitry Abulkhanov, Indraneil Paul, Zhuang Li, Wen-Ding Li, Megan Risdal, Jia Li, Jian Zhu, Terry Yue Zhuo, Evgenii Zheltonozhskii, Nii Osae Osae Dade, Wenhao Yu, Lucas Krauß, Naman Jain, Yixuan Su, Xuanli He, Manan Dey, Edoardo Abati, Yekun Chai, Niklas Muennighoff, Xiangru Tang, Muhtasham Oblokulov, Christopher Akiki, Marc Marone, Chenghao Mou, Mayank Mishra, Alex Gu, Binyuan Hui, Tri Dao, Armel Zebaze, Olivier Dehaene, Nicolas Patry, Canwen Xu, Julian McAuley, Han Hu, Torsten Scholak, Sebastien Paquet, Jennifer Robinson, Carolyn Jane Anderson, Nicolas Chapados, Mostofa Patwary, Nima Tajbakhsh, Yacine Jernite, Carlos Muñoz Ferrandis, Lingming Zhang, Sean Hughes, Thomas Wolf, Arjun Guha, Leandro von Werra, Harm de Vries
cs.AI
Résumé
Le projet BigCode, une collaboration scientifique ouverte axée sur le développement responsable de grands modèles de langage pour le code (Code LLMs), présente StarCoder2. En partenariat avec Software Heritage (SWH), nous construisons The Stack v2 à partir des biens communs numériques de leur archive de code source. En plus des dépôts SWH couvrant 619 langages de programmation, nous sélectionnons soigneusement d'autres sources de données de haute qualité, telles que les pull requests GitHub, les notebooks Kaggle et la documentation de code. Cela aboutit à un ensemble d'entraînement 4 fois plus grand que le premier jeu de données StarCoder. Nous entraînons les modèles StarCoder2 avec 3B, 7B et 15B de paramètres sur 3,3 à 4,3 billions de tokens et les évaluons de manière approfondie sur un ensemble complet de benchmarks pour Code LLM. Nous constatons que notre petit modèle, StarCoder2-3B, surpasse d'autres Code LLM de taille similaire sur la plupart des benchmarks, et dépasse également StarCoderBase-15B. Notre grand modèle, StarCoder2-15B, surpasse significativement d'autres modèles de taille comparable. De plus, il égale ou dépasse CodeLlama-34B, un modèle plus de deux fois plus grand. Bien que DeepSeekCoder-33B soit le modèle le plus performant pour la complétion de code dans les langages à ressources élevées, nous constatons que StarCoder2-15B le surpasse sur les benchmarks de raisonnement mathématique et de code, ainsi que sur plusieurs langages à faibles ressources. Nous rendons les poids du modèle disponibles sous une licence OpenRAIL et assurons une transparence totale concernant les données d'entraînement en publiant les identifiants persistants SoftWare Heritage (SWHIDs) des données de code source.
English
The BigCode project, an open-scientific collaboration focused on the
responsible development of Large Language Models for Code (Code LLMs),
introduces StarCoder2. In partnership with Software Heritage (SWH), we build
The Stack v2 on top of the digital commons of their source code archive.
Alongside the SWH repositories spanning 619 programming languages, we carefully
select other high-quality data sources, such as GitHub pull requests, Kaggle
notebooks, and code documentation. This results in a training set that is 4x
larger than the first StarCoder dataset. We train StarCoder2 models with 3B,
7B, and 15B parameters on 3.3 to 4.3 trillion tokens and thoroughly evaluate
them on a comprehensive set of Code LLM benchmarks. We find that our small
model, StarCoder2-3B, outperforms other Code LLMs of similar size on most
benchmarks, and also outperforms StarCoderBase-15B. Our large model,
StarCoder2- 15B, significantly outperforms other models of comparable size. In
addition, it matches or outperforms CodeLlama-34B, a model more than twice its
size. Although DeepSeekCoder- 33B is the best-performing model at code
completion for high-resource languages, we find that StarCoder2-15B outperforms
it on math and code reasoning benchmarks, as well as several low-resource
languages. We make the model weights available under an OpenRAIL license and
ensure full transparency regarding the training data by releasing the SoftWare
Heritage persistent IDentifiers (SWHIDs) of the source code data.