Platypus : Raffinement rapide, économique et puissant des modèles de langage de grande taille
Platypus: Quick, Cheap, and Powerful Refinement of LLMs
August 14, 2023
Auteurs: Ariel N. Lee, Cole J. Hunter, Nataniel Ruiz
cs.AI
Résumé
Nous présentons Platypus, une famille de grands modèles de langage (LLM) affinés et fusionnés, qui atteint les performances les plus élevées et occupe actuellement la première place du classement Open LLM de HuggingFace à la date de publication de ce travail. Dans cet article, nous décrivons (1) notre ensemble de données soigneusement sélectionné Open-Platypus, qui est un sous-ensemble d'autres ensembles de données ouvertes et que nous rendons public, (2) notre processus d'affinage et de fusion de modules LoRA afin de préserver les fortes connaissances préalables des LLM pré-entraînés, tout en mettant en avant des connaissances spécifiques à un domaine, (3) nos efforts pour vérifier les fuites de données de test et la contamination des données d'entraînement, ce qui peut éclairer les recherches futures. Plus précisément, la famille Platypus obtient des performances solides sur les métriques quantitatives des LLM, quelle que soit la taille des modèles, en tête du classement mondial Open LLM tout en utilisant seulement une fraction des données d'affinage et de la puissance de calcul nécessaires pour d'autres LLM affinés de pointe. En particulier, un modèle Platypus de 13B peut être entraîné sur un seul GPU A100 en utilisant 25 000 questions en 5 heures. Cela témoigne de la qualité de notre ensemble de données Open-Platypus et ouvre des opportunités pour des améliorations supplémentaires dans le domaine. Page du projet : https://platypus-llm.github.io
English
We present Platypus, a family of fine-tuned and merged Large
Language Models (LLMs) that achieves the strongest performance and currently
stands at first place in HuggingFace's Open LLM Leaderboard as of the release
date of this work. In this work we describe (1) our curated dataset
Open-Platypus, that is a subset of other open datasets and which
we release to the public (2) our process of fine-tuning and merging
LoRA modules in order to conserve the strong prior of pretrained LLMs, while
bringing specific domain knowledge to the surface (3) our efforts in checking
for test data leaks and contamination in the training data, which can inform
future research. Specifically, the Platypus family achieves strong performance
in quantitative LLM metrics across model sizes, topping the global Open LLM
leaderboard while using just a fraction of the fine-tuning data and overall
compute that are required for other state-of-the-art fine-tuned LLMs. In
particular, a 13B Platypus model can be trained on a single A100 GPU
using 25k questions in 5 hours. This is a testament of the quality of our
Open-Platypus dataset, and opens opportunities for more improvements in the
field. Project page: https://platypus-llm.github.io