ChatPaper.aiChatPaper

FinGPT: Крупные генеративные модели для малого языка

FinGPT: Large Generative Models for a Small Language

November 3, 2023
Авторы: Risto Luukkonen, Ville Komulainen, Jouni Luoma, Anni Eskelinen, Jenna Kanerva, Hanna-Mari Kupari, Filip Ginter, Veronika Laippala, Niklas Muennighoff, Aleksandra Piktus, Thomas Wang, Nouamane Tazi, Teven Le Scao, Thomas Wolf, Osma Suominen, Samuli Sairanen, Mikko Merioksa, Jyrki Heinonen, Aija Vahtola, Samuel Antao, Sampo Pyysalo
cs.AI

Аннотация

Крупные языковые модели (LLM) демонстрируют выдающиеся результаты во многих задачах NLP и за его пределами, однако большинство открытых моделей имеют крайне ограниченное покрытие малых языков, а исследования LLM, как правило, сосредоточены на языках, для которых доступны практически неограниченные данные для предварительного обучения. В данной работе мы исследуем сложности создания LLM для финского языка, на котором говорит менее 0,1% мирового населения. Мы собираем обширный набор данных на финском языке, включающий веб-сканеры, новости, социальные сети и электронные книги. Мы применяем два подхода для предварительного обучения моделей: 1) обучаем семь монолингвальных моделей с нуля (от 186 млн до 13 млрд параметров), названных FinGPT, 2) продолжаем предварительное обучение многоязычной модели BLOOM на смеси её исходных обучающих данных и финского языка, получая модель с 176 млрд параметров, которую мы называем BLUUMI. Для оценки моделей мы представляем FIN-bench — версию BIG-bench с заданиями на финском языке. Мы также анализируем другие качества моделей, такие как токсичность и предвзятость. Наши модели и инструменты открыто доступны по адресу https://turkunlp.org/gpt3-finnish.
English
Large language models (LLMs) excel in many tasks in NLP and beyond, but most open models have very limited coverage of smaller languages and LLM work tends to focus on languages where nearly unlimited data is available for pretraining. In this work, we study the challenges of creating LLMs for Finnish, a language spoken by less than 0.1% of the world population. We compile an extensive dataset of Finnish combining web crawls, news, social media and eBooks. We pursue two approaches to pretrain models: 1) we train seven monolingual models from scratch (186M to 13B parameters) dubbed FinGPT, 2) we continue the pretraining of the multilingual BLOOM model on a mix of its original training data and Finnish, resulting in a 176 billion parameter model we call BLUUMI. For model evaluation, we introduce FIN-bench, a version of BIG-bench with Finnish tasks. We also assess other model qualities such as toxicity and bias. Our models and tools are openly available at https://turkunlp.org/gpt3-finnish.
PDF321December 15, 2024