ChatPaper.aiChatPaper

FinGPT: Grote generatieve modellen voor een kleine taal

FinGPT: Large Generative Models for a Small Language

November 3, 2023
Auteurs: Risto Luukkonen, Ville Komulainen, Jouni Luoma, Anni Eskelinen, Jenna Kanerva, Hanna-Mari Kupari, Filip Ginter, Veronika Laippala, Niklas Muennighoff, Aleksandra Piktus, Thomas Wang, Nouamane Tazi, Teven Le Scao, Thomas Wolf, Osma Suominen, Samuli Sairanen, Mikko Merioksa, Jyrki Heinonen, Aija Vahtola, Samuel Antao, Sampo Pyysalo
cs.AI

Samenvatting

Grote taalmmodellen (LLM's) blinken uit in veel taken binnen NLP en daarbuiten, maar de meeste open modellen hebben een zeer beperkte dekking van kleinere talen, en LLM-werk richt zich meestal op talen waar bijna onbeperkte gegevens beschikbaar zijn voor voorafgaande training. In dit werk onderzoeken we de uitdagingen van het creëren van LLM's voor het Fins, een taal die door minder dan 0,1% van de wereldbevolking wordt gesproken. We stellen een uitgebreide dataset van het Fins samen door webcrawls, nieuws, sociale media en e-boeken te combineren. We volgen twee benaderingen om modellen vooraf te trainen: 1) we trainen zeven eentalige modellen vanaf nul (186M tot 13B parameters), genaamd FinGPT, 2) we zetten de voorafgaande training van het meertalige BLOOM-model voort op een mix van de oorspronkelijke trainingsgegevens en Fins, wat resulteert in een model van 176 miljard parameters dat we BLUUMI noemen. Voor modelbeoordeling introduceren we FIN-bench, een versie van BIG-bench met Finse taken. We beoordelen ook andere modelkwaliteiten zoals toxiciteit en bias. Onze modellen en tools zijn openbaar beschikbaar op https://turkunlp.org/gpt3-finnish.
English
Large language models (LLMs) excel in many tasks in NLP and beyond, but most open models have very limited coverage of smaller languages and LLM work tends to focus on languages where nearly unlimited data is available for pretraining. In this work, we study the challenges of creating LLMs for Finnish, a language spoken by less than 0.1% of the world population. We compile an extensive dataset of Finnish combining web crawls, news, social media and eBooks. We pursue two approaches to pretrain models: 1) we train seven monolingual models from scratch (186M to 13B parameters) dubbed FinGPT, 2) we continue the pretraining of the multilingual BLOOM model on a mix of its original training data and Finnish, resulting in a 176 billion parameter model we call BLUUMI. For model evaluation, we introduce FIN-bench, a version of BIG-bench with Finnish tasks. We also assess other model qualities such as toxicity and bias. Our models and tools are openly available at https://turkunlp.org/gpt3-finnish.
PDF311December 15, 2024