Платипус: Быстрое, дешевое и мощное уточнение языковых моделей
Platypus: Quick, Cheap, and Powerful Refinement of LLMs
August 14, 2023
Авторы: Ariel N. Lee, Cole J. Hunter, Nataniel Ruiz
cs.AI
Аннотация
Мы представляем Platypus — семейство тонко настроенных и объединенных больших языковых моделей (LLM), которые демонстрируют наивысшую производительность и в настоящее время занимают первое место в рейтинге Open LLM Leaderboard от HuggingFace на момент публикации данной работы. В этой статье мы описываем (1) наш тщательно отобранный набор данных Open-Platypus, который является подмножеством других открытых наборов данных и который мы публикуем для общего доступа, (2) наш процесс тонкой настройки и объединения модулей LoRA с целью сохранения сильных априорных знаний предобученных LLM, одновременно выводя на поверхность специфические знания в определенных областях, (3) наши усилия по проверке на утечку тестовых данных и загрязнение обучающих данных, что может быть полезно для будущих исследований. В частности, семейство Platypus демонстрирует высокие результаты в количественных метриках LLM для моделей различных размеров, возглавляя глобальный рейтинг Open LLM Leaderboard, используя лишь часть данных для тонкой настройки и вычислительных ресурсов, необходимых для других современных тонко настроенных LLM. В частности, модель Platypus объемом 13B может быть обучена на одном GPU A100 с использованием 25 тысяч вопросов за 5 часов. Это свидетельствует о высоком качестве нашего набора данных Open-Platypus и открывает возможности для дальнейших улучшений в этой области. Страница проекта: https://platypus-llm.github.io.
English
We present Platypus, a family of fine-tuned and merged Large
Language Models (LLMs) that achieves the strongest performance and currently
stands at first place in HuggingFace's Open LLM Leaderboard as of the release
date of this work. In this work we describe (1) our curated dataset
Open-Platypus, that is a subset of other open datasets and which
we release to the public (2) our process of fine-tuning and merging
LoRA modules in order to conserve the strong prior of pretrained LLMs, while
bringing specific domain knowledge to the surface (3) our efforts in checking
for test data leaks and contamination in the training data, which can inform
future research. Specifically, the Platypus family achieves strong performance
in quantitative LLM metrics across model sizes, topping the global Open LLM
leaderboard while using just a fraction of the fine-tuning data and overall
compute that are required for other state-of-the-art fine-tuned LLMs. In
particular, a 13B Platypus model can be trained on a single A100 GPU
using 25k questions in 5 hours. This is a testament of the quality of our
Open-Platypus dataset, and opens opportunities for more improvements in the
field. Project page: https://platypus-llm.github.io