Ayaデータセット:多言語命令チューニングのためのオープンアクセスコレクション
Aya Dataset: An Open-Access Collection for Multilingual Instruction Tuning
February 9, 2024
著者: Shivalika Singh, Freddie Vargus, Daniel Dsouza, Börje F. Karlsson, Abinaya Mahendiran, Wei-Yin Ko, Herumb Shandilya, Jay Patel, Deividas Mataciunas, Laura OMahony, Mike Zhang, Ramith Hettiarachchi, Joseph Wilson, Marina Machado, Luisa Souza Moura, Dominik Krzemiński, Hakimeh Fadaei, Irem Ergün, Ifeoma Okoh, Aisha Alaagib, Oshan Mudannayake, Zaid Alyafeai, Vu Minh Chien, Sebastian Ruder, Surya Guthikonda, Emad A. Alghamdi, Sebastian Gehrmann, Niklas Muennighoff, Max Bartolo, Julia Kreutzer, Ahmet Üstün, Marzieh Fadaee, Sara Hooker
cs.AI
要旨
データセットは、現代の人工知能における多くのブレークスルーの基盤となっている。自然言語処理(NLP)分野における最近の成果の多くは、多様なタスクに対して事前学習済みモデルをファインチューニングすることで、大規模言語モデル(LLM)が指示に応答できるようになったことに起因している。指示ファインチューニング(IFT)には、特に構築され注釈が付けられたデータセットが必要である。しかし、既存のデータセットはほとんどが英語である。本研究の主な目的は、65言語にわたる人間によるキュレーションされた指示追従データセットを構築することで、言語間のギャップを埋めることである。世界中の言語に堪能な話者と協力し、自然な指示とその完了例を収集した。さらに、既存のデータセットをテンプレート化し、114言語に翻訳することで、これまでで最も広範な多言語コレクションを作成し、5億1300万のインスタンスを集めた。全体として、我々は4つの主要なリソースを提供する:Ayaアノテーションプラットフォーム、Ayaデータセット、Ayaコレクション、およびAya評価スイートを開発し、オープンソース化した。Ayaイニシアチブはまた、119か国からの協力者を巻き込んだ参加型研究の貴重な事例研究としても機能する。我々はこれを、リソースのギャップを埋めることを目指す将来の研究協力のための貴重なフレームワークと見なしている。
English
Datasets are foundational to many breakthroughs in modern artificial
intelligence. Many recent achievements in the space of natural language
processing (NLP) can be attributed to the finetuning of pre-trained models on a
diverse set of tasks that enables a large language model (LLM) to respond to
instructions. Instruction fine-tuning (IFT) requires specifically constructed
and annotated datasets. However, existing datasets are almost all in the
English language. In this work, our primary goal is to bridge the language gap
by building a human-curated instruction-following dataset spanning 65
languages. We worked with fluent speakers of languages from around the world to
collect natural instances of instructions and completions. Furthermore, we
create the most extensive multilingual collection to date, comprising 513
million instances through templating and translating existing datasets across
114 languages. In total, we contribute four key resources: we develop and
open-source the Aya Annotation Platform, the Aya Dataset, the Aya Collection,
and the Aya Evaluation Suite. The Aya initiative also serves as a valuable case
study in participatory research, involving collaborators from 119 countries. We
see this as a valuable framework for future research collaborations that aim to
bridge gaps in resources.