FinGPT : Modèles génératifs de grande envergure pour une langue minoritaire
FinGPT: Large Generative Models for a Small Language
November 3, 2023
Auteurs: Risto Luukkonen, Ville Komulainen, Jouni Luoma, Anni Eskelinen, Jenna Kanerva, Hanna-Mari Kupari, Filip Ginter, Veronika Laippala, Niklas Muennighoff, Aleksandra Piktus, Thomas Wang, Nouamane Tazi, Teven Le Scao, Thomas Wolf, Osma Suominen, Samuli Sairanen, Mikko Merioksa, Jyrki Heinonen, Aija Vahtola, Samuel Antao, Sampo Pyysalo
cs.AI
Résumé
Les grands modèles de langage (LLM) excellent dans de nombreuses tâches en TAL et au-delà, mais la plupart des modèles ouverts ont une couverture très limitée des langues minoritaires, et les travaux sur les LLM tendent à se concentrer sur les langues pour lesquelles des données quasi illimitées sont disponibles pour le pré-entraînement. Dans ce travail, nous étudions les défis liés à la création de LLM pour le finnois, une langue parlée par moins de 0,1 % de la population mondiale. Nous compilons un vaste ensemble de données en finnois combinant des extractions web, des articles de presse, des médias sociaux et des livres électroniques. Nous explorons deux approches pour le pré-entraînement des modèles : 1) nous entraînons sept modèles monolingues à partir de zéro (de 186M à 13B paramètres), baptisés FinGPT, 2) nous poursuivons le pré-entraînement du modèle multilingue BLOOM sur un mélange de ses données d'entraînement originales et de données en finnois, aboutissant à un modèle de 176 milliards de paramètres que nous appelons BLUUMI. Pour l'évaluation des modèles, nous introduisons FIN-bench, une version de BIG-bench avec des tâches en finnois. Nous évaluons également d'autres qualités des modèles, telles que la toxicité et les biais. Nos modèles et outils sont librement disponibles à l'adresse https://turkunlp.org/gpt3-finnish.
English
Large language models (LLMs) excel in many tasks in NLP and beyond, but most
open models have very limited coverage of smaller languages and LLM work tends
to focus on languages where nearly unlimited data is available for pretraining.
In this work, we study the challenges of creating LLMs for Finnish, a language
spoken by less than 0.1% of the world population. We compile an extensive
dataset of Finnish combining web crawls, news, social media and eBooks. We
pursue two approaches to pretrain models: 1) we train seven monolingual models
from scratch (186M to 13B parameters) dubbed FinGPT, 2) we continue the
pretraining of the multilingual BLOOM model on a mix of its original training
data and Finnish, resulting in a 176 billion parameter model we call BLUUMI.
For model evaluation, we introduce FIN-bench, a version of BIG-bench with
Finnish tasks. We also assess other model qualities such as toxicity and bias.
Our models and tools are openly available at https://turkunlp.org/gpt3-finnish.