CroissantLLM: Een Waarlijk Tweetalig Frans-Engels Taalmodel
CroissantLLM: A Truly Bilingual French-English Language Model
February 1, 2024
Auteurs: Manuel Faysse, Patrick Fernandes, Nuno Guerreiro, António Loison, Duarte Alves, Caio Corro, Nicolas Boizard, João Alves, Ricardo Rei, Pedro Martins, Antoni Bigata Casademunt, François Yvon, André Martins, Gautier Viaud, Céline Hudelot, Pierre Colombo
cs.AI
Samenvatting
We introduceren CroissantLLM, een 1,3B taalmodel vooraf getraind op een set van 3T Engelse en Franse tokens, om de onderzoeks- en industriële gemeenschap een hoogwaardig, volledig open-source tweetalig model te bieden dat soepel draait op consumentenhardware. Hiervoor pionieren we met de aanpak van het trainen van een intrinsiek tweetalig model met een 1:1 Engels-Frans verhouding in de voorafgaande trainingsdata, een aangepaste tokenizer en tweetalige fine-tuning datasets. We publiceren de trainingsdataset, die onder meer een Franse subset bevat met handmatig gecureerde, hoogwaardige en gevarieerde databronnen. Om de prestaties buiten het Engels te evalueren, ontwikkelen we een nieuwe benchmark, FrenchBench, bestaande uit een reeks classificatie- en generatietaken die verschillende orthogonale aspecten van modelprestaties in de Franse taal bestrijken. Daarnaast, geworteld in transparantie en om verder onderzoek naar grote taalmodelen te bevorderen, publiceren we codebases, tientallen checkpoints van verschillende modelgroottes, trainingsdatadistributies en trainingsstappen, evenals fine-tuned Chat-modellen en sterke vertaalmodellen. We evalueren ons model via het FMTI-raamwerk en valideren 81% van de transparantiecriteria, ver boven de scores van zelfs de meest open initiatieven. Dit werk verrijkt het NLP-landschap en breekt met eerder Engels-centrisch werk om ons begrip van meertaligheid in taalmodelen te versterken.
English
We introduce CroissantLLM, a 1.3B language model pretrained on a set of 3T
English and French tokens, to bring to the research and industrial community a
high-performance, fully open-sourced bilingual model that runs swiftly on
consumer-grade local hardware. To that end, we pioneer the approach of training
an intrinsically bilingual model with a 1:1 English-to-French pretraining data
ratio, a custom tokenizer, and bilingual finetuning datasets. We release the
training dataset, notably containing a French split with manually curated,
high-quality, and varied data sources. To assess performance outside of
English, we craft a novel benchmark, FrenchBench, consisting of an array of
classification and generation tasks, covering various orthogonal aspects of
model performance in the French Language. Additionally, rooted in transparency
and to foster further Large Language Model research, we release codebases, and
dozens of checkpoints across various model sizes, training data distributions,
and training steps, as well as fine-tuned Chat models, and strong translation
models. We evaluate our model through the FMTI framework, and validate 81 % of
the transparency criteria, far beyond the scores of even most open initiatives.
This work enriches the NLP landscape, breaking away from previous
English-centric work in order to strengthen our understanding of
multilinguality in language models.