FinGPT: Modelos Generativos Grandes para un Idioma Pequeño
FinGPT: Large Generative Models for a Small Language
November 3, 2023
Autores: Risto Luukkonen, Ville Komulainen, Jouni Luoma, Anni Eskelinen, Jenna Kanerva, Hanna-Mari Kupari, Filip Ginter, Veronika Laippala, Niklas Muennighoff, Aleksandra Piktus, Thomas Wang, Nouamane Tazi, Teven Le Scao, Thomas Wolf, Osma Suominen, Samuli Sairanen, Mikko Merioksa, Jyrki Heinonen, Aija Vahtola, Samuel Antao, Sampo Pyysalo
cs.AI
Resumen
Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) sobresalen en muchas tareas dentro del procesamiento del lenguaje natural (NLP) y más allá, pero la mayoría de los modelos abiertos tienen una cobertura muy limitada de idiomas minoritarios, y el trabajo con LLMs tiende a centrarse en lenguas donde hay datos prácticamente ilimitados disponibles para el preentrenamiento. En este trabajo, estudiamos los desafíos de crear LLMs para el finlandés, un idioma hablado por menos del 0.1% de la población mundial. Compilamos un extenso conjunto de datos en finlandés que combina rastreos web, noticias, redes sociales y libros electrónicos. Seguimos dos enfoques para el preentrenamiento de modelos: 1) entrenamos siete modelos monolingües desde cero (con parámetros que van desde 186M hasta 13B), denominados FinGPT, y 2) continuamos el preentrenamiento del modelo multilingüe BLOOM con una mezcla de sus datos de entrenamiento originales y datos en finlandés, lo que resulta en un modelo de 176 mil millones de parámetros que llamamos BLUUMI. Para la evaluación de los modelos, presentamos FIN-bench, una versión de BIG-bench con tareas en finlandés. También evaluamos otras cualidades de los modelos, como la toxicidad y el sesgo. Nuestros modelos y herramientas están disponibles abiertamente en https://turkunlp.org/gpt3-finnish.
English
Large language models (LLMs) excel in many tasks in NLP and beyond, but most
open models have very limited coverage of smaller languages and LLM work tends
to focus on languages where nearly unlimited data is available for pretraining.
In this work, we study the challenges of creating LLMs for Finnish, a language
spoken by less than 0.1% of the world population. We compile an extensive
dataset of Finnish combining web crawls, news, social media and eBooks. We
pursue two approaches to pretrain models: 1) we train seven monolingual models
from scratch (186M to 13B parameters) dubbed FinGPT, 2) we continue the
pretraining of the multilingual BLOOM model on a mix of its original training
data and Finnish, resulting in a 176 billion parameter model we call BLUUMI.
For model evaluation, we introduce FIN-bench, a version of BIG-bench with
Finnish tasks. We also assess other model qualities such as toxicity and bias.
Our models and tools are openly available at https://turkunlp.org/gpt3-finnish.