FinGPT: Modelos Generativos de Grande Escala para um Idioma de Pequena Escala
FinGPT: Large Generative Models for a Small Language
November 3, 2023
Autores: Risto Luukkonen, Ville Komulainen, Jouni Luoma, Anni Eskelinen, Jenna Kanerva, Hanna-Mari Kupari, Filip Ginter, Veronika Laippala, Niklas Muennighoff, Aleksandra Piktus, Thomas Wang, Nouamane Tazi, Teven Le Scao, Thomas Wolf, Osma Suominen, Samuli Sairanen, Mikko Merioksa, Jyrki Heinonen, Aija Vahtola, Samuel Antao, Sampo Pyysalo
cs.AI
Resumo
Modelos de linguagem de grande escala (LLMs) se destacam em muitas tarefas de PLN e além, mas a maioria dos modelos abertos tem uma cobertura muito limitada de idiomas menores, e o trabalho com LLMs tende a se concentrar em idiomas onde há dados quase ilimitados disponíveis para pré-treinamento. Neste trabalho, estudamos os desafios de criar LLMs para o finlandês, um idioma falado por menos de 0,1% da população mundial. Compilamos um extenso conjunto de dados em finlandês, combinando rastreamentos da web, notícias, mídias sociais e e-books. Seguimos duas abordagens para pré-treinar modelos: 1) treinamos sete modelos monolíngues do zero (com 186M a 13B parâmetros), chamados FinGPT, e 2) continuamos o pré-treinamento do modelo multilíngue BLOOM com uma mistura de seus dados de treinamento originais e dados em finlandês, resultando em um modelo de 176 bilhões de parâmetros que chamamos de BLUUMI. Para avaliação dos modelos, introduzimos o FIN-bench, uma versão do BIG-bench com tarefas em finlandês. Também avaliamos outras qualidades dos modelos, como toxicidade e viés. Nossos modelos e ferramentas estão disponíveis publicamente em https://turkunlp.org/gpt3-finnish.
English
Large language models (LLMs) excel in many tasks in NLP and beyond, but most
open models have very limited coverage of smaller languages and LLM work tends
to focus on languages where nearly unlimited data is available for pretraining.
In this work, we study the challenges of creating LLMs for Finnish, a language
spoken by less than 0.1% of the world population. We compile an extensive
dataset of Finnish combining web crawls, news, social media and eBooks. We
pursue two approaches to pretrain models: 1) we train seven monolingual models
from scratch (186M to 13B parameters) dubbed FinGPT, 2) we continue the
pretraining of the multilingual BLOOM model on a mix of its original training
data and Finnish, resulting in a 176 billion parameter model we call BLUUMI.
For model evaluation, we introduce FIN-bench, a version of BIG-bench with
Finnish tasks. We also assess other model qualities such as toxicity and bias.
Our models and tools are openly available at https://turkunlp.org/gpt3-finnish.