Platypus: Raffinamento Rapido, Economico e Potente dei Modelli Linguistici di Grandi Dimensioni
Platypus: Quick, Cheap, and Powerful Refinement of LLMs
August 14, 2023
Autori: Ariel N. Lee, Cole J. Hunter, Nataniel Ruiz
cs.AI
Abstract
Presentiamo Platypus, una famiglia di Large Language Models (LLM) ottimizzati e fusi che raggiunge le migliori prestazioni e attualmente si colloca al primo posto nella Open LLM Leaderboard di HuggingFace alla data di rilascio di questo lavoro. In questo articolo descriviamo (1) il nostro dataset curato Open-Platypus, che è un sottoinsieme di altri dataset aperti e che rendiamo pubblico, (2) il nostro processo di ottimizzazione e fusione di moduli LoRA per preservare il forte precedente dei LLM pre-addestrati, portando alla luce conoscenze specifiche di dominio, (3) i nostri sforzi nel verificare perdite di dati di test e contaminazioni nei dati di addestramento, che possono informare future ricerche. In particolare, la famiglia Platypus raggiunge prestazioni eccellenti nelle metriche quantitative dei LLM su diverse dimensioni dei modelli, dominando la classifica globale Open LLM utilizzando solo una frazione dei dati di ottimizzazione e del calcolo complessivo richiesti per altri LLM ottimizzati all'avanguardia. Nello specifico, un modello Platypus da 13B può essere addestrato su una singola GPU A100 utilizzando 25k domande in 5 ore. Questo è una testimonianza della qualità del nostro dataset Open-Platypus e apre opportunità per ulteriori miglioramenti nel campo. Pagina del progetto: https://platypus-llm.github.io
English
We present Platypus, a family of fine-tuned and merged Large
Language Models (LLMs) that achieves the strongest performance and currently
stands at first place in HuggingFace's Open LLM Leaderboard as of the release
date of this work. In this work we describe (1) our curated dataset
Open-Platypus, that is a subset of other open datasets and which
we release to the public (2) our process of fine-tuning and merging
LoRA modules in order to conserve the strong prior of pretrained LLMs, while
bringing specific domain knowledge to the surface (3) our efforts in checking
for test data leaks and contamination in the training data, which can inform
future research. Specifically, the Platypus family achieves strong performance
in quantitative LLM metrics across model sizes, topping the global Open LLM
leaderboard while using just a fraction of the fine-tuning data and overall
compute that are required for other state-of-the-art fine-tuned LLMs. In
particular, a 13B Platypus model can be trained on a single A100 GPU
using 25k questions in 5 hours. This is a testament of the quality of our
Open-Platypus dataset, and opens opportunities for more improvements in the
field. Project page: https://platypus-llm.github.io