ChatPaper.aiChatPaper

CroissantLLM: Un modelo de lenguaje verdaderamente bilingüe francés-inglés

CroissantLLM: A Truly Bilingual French-English Language Model

February 1, 2024
Autores: Manuel Faysse, Patrick Fernandes, Nuno Guerreiro, António Loison, Duarte Alves, Caio Corro, Nicolas Boizard, João Alves, Ricardo Rei, Pedro Martins, Antoni Bigata Casademunt, François Yvon, André Martins, Gautier Viaud, Céline Hudelot, Pierre Colombo
cs.AI

Resumen

Presentamos CroissantLLM, un modelo de lenguaje de 1.3B parámetros preentrenado en un conjunto de 3 billones de tokens en inglés y francés, con el objetivo de ofrecer a la comunidad investigadora e industrial un modelo bilingüe de alto rendimiento, completamente de código abierto, que se ejecuta rápidamente en hardware local de consumo. Para ello, innovamos con el enfoque de entrenar un modelo intrínsecamente bilingüe utilizando una proporción 1:1 de datos de preentrenamiento en inglés y francés, un tokenizador personalizado y conjuntos de datos de ajuste fino bilingües. Publicamos el conjunto de datos de entrenamiento, que incluye notablemente una división en francés con fuentes de datos variadas, de alta calidad y curadas manualmente. Para evaluar el rendimiento fuera del inglés, creamos un nuevo punto de referencia, FrenchBench, que consiste en una variedad de tareas de clasificación y generación, cubriendo diversos aspectos ortogonales del rendimiento del modelo en el idioma francés. Además, basándonos en la transparencia y para fomentar la investigación en modelos de lenguaje de gran escala, publicamos bases de código, docenas de puntos de control en varios tamaños de modelo, distribuciones de datos de entrenamiento y pasos de entrenamiento, así como modelos de chat ajustados y modelos de traducción robustos. Evaluamos nuestro modelo a través del marco FMTI y validamos el 81% de los criterios de transparencia, superando ampliamente las puntuaciones de incluso la mayoría de las iniciativas abiertas. Este trabajo enriquece el panorama de la PNL, alejándose de trabajos anteriores centrados en el inglés para fortalecer nuestra comprensión de la multilingüidad en los modelos de lenguaje.
English
We introduce CroissantLLM, a 1.3B language model pretrained on a set of 3T English and French tokens, to bring to the research and industrial community a high-performance, fully open-sourced bilingual model that runs swiftly on consumer-grade local hardware. To that end, we pioneer the approach of training an intrinsically bilingual model with a 1:1 English-to-French pretraining data ratio, a custom tokenizer, and bilingual finetuning datasets. We release the training dataset, notably containing a French split with manually curated, high-quality, and varied data sources. To assess performance outside of English, we craft a novel benchmark, FrenchBench, consisting of an array of classification and generation tasks, covering various orthogonal aspects of model performance in the French Language. Additionally, rooted in transparency and to foster further Large Language Model research, we release codebases, and dozens of checkpoints across various model sizes, training data distributions, and training steps, as well as fine-tuned Chat models, and strong translation models. We evaluate our model through the FMTI framework, and validate 81 % of the transparency criteria, far beyond the scores of even most open initiatives. This work enriches the NLP landscape, breaking away from previous English-centric work in order to strengthen our understanding of multilinguality in language models.
PDF273December 15, 2024