ChatPaper.aiChatPaper

StarCoder 2 e The Stack v2: La Nuova Generazione

StarCoder 2 and The Stack v2: The Next Generation

February 29, 2024
Autori: Anton Lozhkov, Raymond Li, Loubna Ben Allal, Federico Cassano, Joel Lamy-Poirier, Nouamane Tazi, Ao Tang, Dmytro Pykhtar, Jiawei Liu, Yuxiang Wei, Tianyang Liu, Max Tian, Denis Kocetkov, Arthur Zucker, Younes Belkada, Zijian Wang, Qian Liu, Dmitry Abulkhanov, Indraneil Paul, Zhuang Li, Wen-Ding Li, Megan Risdal, Jia Li, Jian Zhu, Terry Yue Zhuo, Evgenii Zheltonozhskii, Nii Osae Osae Dade, Wenhao Yu, Lucas Krauß, Naman Jain, Yixuan Su, Xuanli He, Manan Dey, Edoardo Abati, Yekun Chai, Niklas Muennighoff, Xiangru Tang, Muhtasham Oblokulov, Christopher Akiki, Marc Marone, Chenghao Mou, Mayank Mishra, Alex Gu, Binyuan Hui, Tri Dao, Armel Zebaze, Olivier Dehaene, Nicolas Patry, Canwen Xu, Julian McAuley, Han Hu, Torsten Scholak, Sebastien Paquet, Jennifer Robinson, Carolyn Jane Anderson, Nicolas Chapados, Mostofa Patwary, Nima Tajbakhsh, Yacine Jernite, Carlos Muñoz Ferrandis, Lingming Zhang, Sean Hughes, Thomas Wolf, Arjun Guha, Leandro von Werra, Harm de Vries
cs.AI

Abstract

Il progetto BigCode, una collaborazione scientifica aperta focalizzata sullo sviluppo responsabile di Large Language Models per il codice (Code LLMs), presenta StarCoder2. In collaborazione con Software Heritage (SWH), abbiamo costruito The Stack v2 sulla base dei beni comuni digitali del loro archivio di codice sorgente. Accanto ai repository SWH che coprono 619 linguaggi di programmazione, abbiamo selezionato con cura altre fonti di dati di alta qualità, come le pull request di GitHub, i notebook di Kaggle e la documentazione del codice. Ciò ha portato a un set di addestramento 4 volte più grande rispetto al primo dataset di StarCoder. Abbiamo addestrato i modelli StarCoder2 con 3B, 7B e 15B parametri su 3,3-4,3 trilioni di token e li abbiamo valutati accuratamente su un set completo di benchmark per Code LLM. Abbiamo riscontrato che il nostro modello più piccolo, StarCoder2-3B, supera altri Code LLM di dimensioni simili nella maggior parte dei benchmark e supera anche StarCoderBase-15B. Il nostro modello più grande, StarCoder2-15B, supera significativamente altri modelli di dimensioni comparabili. Inoltre, eguaglia o supera CodeLlama-34B, un modello più del doppio delle sue dimensioni. Sebbene DeepSeekCoder-33B sia il modello con le migliori prestazioni nel completamento del codice per linguaggi ad alta risorsa, abbiamo osservato che StarCoder2-15B lo supera nei benchmark di ragionamento matematico e sul codice, oltre che in diversi linguaggi a bassa risorsa. Rendiamo disponibili i pesi del modello con una licenza OpenRAIL e garantiamo la massima trasparenza sui dati di addestramento rilasciando gli identificatori persistenti di SoftWare Heritage (SWHIDs) per i dati del codice sorgente.
English
The BigCode project, an open-scientific collaboration focused on the responsible development of Large Language Models for Code (Code LLMs), introduces StarCoder2. In partnership with Software Heritage (SWH), we build The Stack v2 on top of the digital commons of their source code archive. Alongside the SWH repositories spanning 619 programming languages, we carefully select other high-quality data sources, such as GitHub pull requests, Kaggle notebooks, and code documentation. This results in a training set that is 4x larger than the first StarCoder dataset. We train StarCoder2 models with 3B, 7B, and 15B parameters on 3.3 to 4.3 trillion tokens and thoroughly evaluate them on a comprehensive set of Code LLM benchmarks. We find that our small model, StarCoder2-3B, outperforms other Code LLMs of similar size on most benchmarks, and also outperforms StarCoderBase-15B. Our large model, StarCoder2- 15B, significantly outperforms other models of comparable size. In addition, it matches or outperforms CodeLlama-34B, a model more than twice its size. Although DeepSeekCoder- 33B is the best-performing model at code completion for high-resource languages, we find that StarCoder2-15B outperforms it on math and code reasoning benchmarks, as well as several low-resource languages. We make the model weights available under an OpenRAIL license and ensure full transparency regarding the training data by releasing the SoftWare Heritage persistent IDentifiers (SWHIDs) of the source code data.
PDF1525February 8, 2026