ChatPaper.aiChatPaper

CroissantLLM: Een Waarlijk Tweetalig Frans-Engels Taalmodel

CroissantLLM: A Truly Bilingual French-English Language Model

February 1, 2024
Auteurs: Manuel Faysse, Patrick Fernandes, Nuno Guerreiro, António Loison, Duarte Alves, Caio Corro, Nicolas Boizard, João Alves, Ricardo Rei, Pedro Martins, Antoni Bigata Casademunt, François Yvon, André Martins, Gautier Viaud, Céline Hudelot, Pierre Colombo
cs.AI

Samenvatting

We introduceren CroissantLLM, een 1,3B taalmodel vooraf getraind op een set van 3T Engelse en Franse tokens, om de onderzoeks- en industriële gemeenschap een hoogwaardig, volledig open-source tweetalig model te bieden dat soepel draait op consumentenhardware. Hiervoor pionieren we met de aanpak van het trainen van een intrinsiek tweetalig model met een 1:1 Engels-Frans verhouding in de voorafgaande trainingsdata, een aangepaste tokenizer en tweetalige fine-tuning datasets. We publiceren de trainingsdataset, die onder meer een Franse subset bevat met handmatig gecureerde, hoogwaardige en gevarieerde databronnen. Om de prestaties buiten het Engels te evalueren, ontwikkelen we een nieuwe benchmark, FrenchBench, bestaande uit een reeks classificatie- en generatietaken die verschillende orthogonale aspecten van modelprestaties in de Franse taal bestrijken. Daarnaast, geworteld in transparantie en om verder onderzoek naar grote taalmodelen te bevorderen, publiceren we codebases, tientallen checkpoints van verschillende modelgroottes, trainingsdatadistributies en trainingsstappen, evenals fine-tuned Chat-modellen en sterke vertaalmodellen. We evalueren ons model via het FMTI-raamwerk en valideren 81% van de transparantiecriteria, ver boven de scores van zelfs de meest open initiatieven. Dit werk verrijkt het NLP-landschap en breekt met eerder Engels-centrisch werk om ons begrip van meertaligheid in taalmodelen te versterken.
English
We introduce CroissantLLM, a 1.3B language model pretrained on a set of 3T English and French tokens, to bring to the research and industrial community a high-performance, fully open-sourced bilingual model that runs swiftly on consumer-grade local hardware. To that end, we pioneer the approach of training an intrinsically bilingual model with a 1:1 English-to-French pretraining data ratio, a custom tokenizer, and bilingual finetuning datasets. We release the training dataset, notably containing a French split with manually curated, high-quality, and varied data sources. To assess performance outside of English, we craft a novel benchmark, FrenchBench, consisting of an array of classification and generation tasks, covering various orthogonal aspects of model performance in the French Language. Additionally, rooted in transparency and to foster further Large Language Model research, we release codebases, and dozens of checkpoints across various model sizes, training data distributions, and training steps, as well as fine-tuned Chat models, and strong translation models. We evaluate our model through the FMTI framework, and validate 81 % of the transparency criteria, far beyond the scores of even most open initiatives. This work enriches the NLP landscape, breaking away from previous English-centric work in order to strengthen our understanding of multilinguality in language models.
PDF263December 15, 2024