Набор данных Aya: Открытая коллекция для мультиязычной настройки инструкций
Aya Dataset: An Open-Access Collection for Multilingual Instruction Tuning
February 9, 2024
Авторы: Shivalika Singh, Freddie Vargus, Daniel Dsouza, Börje F. Karlsson, Abinaya Mahendiran, Wei-Yin Ko, Herumb Shandilya, Jay Patel, Deividas Mataciunas, Laura OMahony, Mike Zhang, Ramith Hettiarachchi, Joseph Wilson, Marina Machado, Luisa Souza Moura, Dominik Krzemiński, Hakimeh Fadaei, Irem Ergün, Ifeoma Okoh, Aisha Alaagib, Oshan Mudannayake, Zaid Alyafeai, Vu Minh Chien, Sebastian Ruder, Surya Guthikonda, Emad A. Alghamdi, Sebastian Gehrmann, Niklas Muennighoff, Max Bartolo, Julia Kreutzer, Ahmet Üstün, Marzieh Fadaee, Sara Hooker
cs.AI
Аннотация
Наборы данных являются основой многих прорывов в современном искусственном интеллекте. Многие последние достижения в области обработки естественного языка (NLP) можно объяснить тонкой настройкой предварительно обученных моделей на разнообразных задачах, что позволяет крупным языковым моделям (LLM) реагировать на инструкции. Тонкая настройка на инструкциях (Instruction Fine-Tuning, IFT) требует специально созданных и аннотированных наборов данных. Однако существующие наборы данных почти полностью представлены на английском языке. В данной работе наша основная цель — преодолеть языковой разрыв, создав аннотированный человеком набор данных для выполнения инструкций, охватывающий 65 языков. Мы сотрудничали с носителями языков со всего мира, чтобы собрать естественные примеры инструкций и их выполнения. Кроме того, мы создали наиболее обширную на сегодняшний день многоязычную коллекцию, включающую 513 миллионов примеров, путем шаблонизации и перевода существующих наборов данных на 114 языков. В общей сложности мы представляем четыре ключевых ресурса: разрабатываем и открываем доступ к платформе аннотирования Aya, набору данных Aya, коллекции Aya и набору для оценки Aya. Инициатива Aya также служит ценным примером участия в исследованиях, вовлекая сотрудников из 119 стран. Мы рассматриваем это как полезную основу для будущих исследовательских коллабораций, направленных на устранение пробелов в ресурсах.
English
Datasets are foundational to many breakthroughs in modern artificial
intelligence. Many recent achievements in the space of natural language
processing (NLP) can be attributed to the finetuning of pre-trained models on a
diverse set of tasks that enables a large language model (LLM) to respond to
instructions. Instruction fine-tuning (IFT) requires specifically constructed
and annotated datasets. However, existing datasets are almost all in the
English language. In this work, our primary goal is to bridge the language gap
by building a human-curated instruction-following dataset spanning 65
languages. We worked with fluent speakers of languages from around the world to
collect natural instances of instructions and completions. Furthermore, we
create the most extensive multilingual collection to date, comprising 513
million instances through templating and translating existing datasets across
114 languages. In total, we contribute four key resources: we develop and
open-source the Aya Annotation Platform, the Aya Dataset, the Aya Collection,
and the Aya Evaluation Suite. The Aya initiative also serves as a valuable case
study in participatory research, involving collaborators from 119 countries. We
see this as a valuable framework for future research collaborations that aim to
bridge gaps in resources.