CroissantLLM : Un véritable modèle de langage bilingue français-anglais
CroissantLLM: A Truly Bilingual French-English Language Model
February 1, 2024
Auteurs: Manuel Faysse, Patrick Fernandes, Nuno Guerreiro, António Loison, Duarte Alves, Caio Corro, Nicolas Boizard, João Alves, Ricardo Rei, Pedro Martins, Antoni Bigata Casademunt, François Yvon, André Martins, Gautier Viaud, Céline Hudelot, Pierre Colombo
cs.AI
Résumé
Nous présentons CroissantLLM, un modèle de langage de 1,3 milliard de paramètres pré-entraîné sur un ensemble de 3 000 milliards de tokens en anglais et en français, visant à offrir à la communauté de recherche et industrielle un modèle bilingue performant, entièrement open-source et capable de fonctionner rapidement sur du matériel local grand public. Pour ce faire, nous innovons en proposant une approche consistant à entraîner un modèle intrinsèquement bilingue avec un ratio de données de pré-entraînement de 1:1 entre l'anglais et le français, un tokenizer personnalisé et des ensembles de données de fine-tuning bilingues. Nous publions l'ensemble de données d'entraînement, comprenant notamment une partie française constituée de sources de données manuellement sélectionnées, de haute qualité et variées. Pour évaluer les performances hors de l'anglais, nous avons conçu un nouveau benchmark, FrenchBench, composé d'une série de tâches de classification et de génération, couvrant divers aspects orthogonaux des performances du modèle en langue française. En outre, dans un esprit de transparence et pour favoriser la recherche sur les grands modèles de langage, nous publions les bases de code, des dizaines de points de contrôle pour différentes tailles de modèles, distributions de données d'entraînement et étapes d'entraînement, ainsi que des modèles Chat fine-tunés et des modèles de traduction performants. Nous évaluons notre modèle à travers le cadre FMTI et validons 81 % des critères de transparence, dépassant largement les scores de la plupart des initiatives ouvertes. Ce travail enrichit le paysage de la NLP, s'éloignant des travaux précédents centrés sur l'anglais afin de renforcer notre compréhension du multilinguisme dans les modèles de langage.
English
We introduce CroissantLLM, a 1.3B language model pretrained on a set of 3T
English and French tokens, to bring to the research and industrial community a
high-performance, fully open-sourced bilingual model that runs swiftly on
consumer-grade local hardware. To that end, we pioneer the approach of training
an intrinsically bilingual model with a 1:1 English-to-French pretraining data
ratio, a custom tokenizer, and bilingual finetuning datasets. We release the
training dataset, notably containing a French split with manually curated,
high-quality, and varied data sources. To assess performance outside of
English, we craft a novel benchmark, FrenchBench, consisting of an array of
classification and generation tasks, covering various orthogonal aspects of
model performance in the French Language. Additionally, rooted in transparency
and to foster further Large Language Model research, we release codebases, and
dozens of checkpoints across various model sizes, training data distributions,
and training steps, as well as fine-tuned Chat models, and strong translation
models. We evaluate our model through the FMTI framework, and validate 81 % of
the transparency criteria, far beyond the scores of even most open initiatives.
This work enriches the NLP landscape, breaking away from previous
English-centric work in order to strengthen our understanding of
multilinguality in language models.