FinGPT:小規模言語向けの大規模生成モデル
FinGPT: Large Generative Models for a Small Language
November 3, 2023
著者: Risto Luukkonen, Ville Komulainen, Jouni Luoma, Anni Eskelinen, Jenna Kanerva, Hanna-Mari Kupari, Filip Ginter, Veronika Laippala, Niklas Muennighoff, Aleksandra Piktus, Thomas Wang, Nouamane Tazi, Teven Le Scao, Thomas Wolf, Osma Suominen, Samuli Sairanen, Mikko Merioksa, Jyrki Heinonen, Aija Vahtola, Samuel Antao, Sampo Pyysalo
cs.AI
要旨
大規模言語モデル(LLM)は、NLPおよびその他の分野で多くのタスクにおいて優れた性能を発揮しますが、ほとんどのオープンモデルは少数言語のカバー範囲が非常に限られており、LLMの研究は事前学習にほぼ無制限のデータが利用可能な言語に焦点を当てる傾向があります。本研究では、世界人口の0.1%未満が話すフィンランド語のLLM作成における課題を探ります。ウェブクロール、ニュース、ソーシャルメディア、電子書籍を組み合わせた広範なフィンランド語データセットを構築しました。モデルの事前学習には2つのアプローチを採用しました:1) 186Mから13Bパラメータまでの7つの単一言語モデルをゼロから学習し、FinGPTと命名、2) 多言語モデルBLOOMの事前学習を、元の学習データとフィンランド語の混合データで継続し、1760億パラメータのモデルBLUUMIを作成しました。モデル評価のために、フィンランド語タスクを含むBIG-benchのバージョンであるFIN-benchを導入しました。また、毒性やバイアスなどの他のモデル品質も評価しています。私たちのモデルとツールはhttps://turkunlp.org/gpt3-finnishで公開されています。
English
Large language models (LLMs) excel in many tasks in NLP and beyond, but most
open models have very limited coverage of smaller languages and LLM work tends
to focus on languages where nearly unlimited data is available for pretraining.
In this work, we study the challenges of creating LLMs for Finnish, a language
spoken by less than 0.1% of the world population. We compile an extensive
dataset of Finnish combining web crawls, news, social media and eBooks. We
pursue two approaches to pretrain models: 1) we train seven monolingual models
from scratch (186M to 13B parameters) dubbed FinGPT, 2) we continue the
pretraining of the multilingual BLOOM model on a mix of its original training
data and Finnish, resulting in a 176 billion parameter model we call BLUUMI.
For model evaluation, we introduce FIN-bench, a version of BIG-bench with
Finnish tasks. We also assess other model qualities such as toxicity and bias.
Our models and tools are openly available at https://turkunlp.org/gpt3-finnish.