Platypus: Refinamiento Rápido, Económico y Potente de Modelos de Lenguaje Grande
Platypus: Quick, Cheap, and Powerful Refinement of LLMs
August 14, 2023
Autores: Ariel N. Lee, Cole J. Hunter, Nataniel Ruiz
cs.AI
Resumen
Presentamos Platypus, una familia de modelos de lenguaje grande (LLMs) ajustados y fusionados que logra el mejor rendimiento y actualmente ocupa el primer lugar en el Open LLM Leaderboard de HuggingFace a partir de la fecha de lanzamiento de este trabajo. En este trabajo describimos (1) nuestro conjunto de datos curado Open-Platypus, que es un subconjunto de otros conjuntos de datos abiertos y que publicamos para el público, (2) nuestro proceso de ajuste fino y fusión de módulos LoRA para conservar el fuerte conocimiento previo de los LLMs preentrenados, al mismo tiempo que destacamos conocimientos específicos de dominio, y (3) nuestros esfuerzos en verificar fugas de datos de prueba y contaminación en los datos de entrenamiento, lo que puede informar investigaciones futuras. Específicamente, la familia Platypus logra un rendimiento sólido en métricas cuantitativas de LLM en todos los tamaños de modelos, liderando el Open LLM Leaderboard global mientras utiliza solo una fracción de los datos de ajuste fino y el cómputo total requeridos para otros LLMs ajustados de última generación. En particular, un modelo Platypus de 13B puede entrenarse en una sola GPU A100 utilizando 25k preguntas en 5 horas. Esto es un testimonio de la calidad de nuestro conjunto de datos Open-Platypus y abre oportunidades para más mejoras en el campo. Página del proyecto: https://platypus-llm.github.io.
English
We present Platypus, a family of fine-tuned and merged Large
Language Models (LLMs) that achieves the strongest performance and currently
stands at first place in HuggingFace's Open LLM Leaderboard as of the release
date of this work. In this work we describe (1) our curated dataset
Open-Platypus, that is a subset of other open datasets and which
we release to the public (2) our process of fine-tuning and merging
LoRA modules in order to conserve the strong prior of pretrained LLMs, while
bringing specific domain knowledge to the surface (3) our efforts in checking
for test data leaks and contamination in the training data, which can inform
future research. Specifically, the Platypus family achieves strong performance
in quantitative LLM metrics across model sizes, topping the global Open LLM
leaderboard while using just a fraction of the fine-tuning data and overall
compute that are required for other state-of-the-art fine-tuned LLMs. In
particular, a 13B Platypus model can be trained on a single A100 GPU
using 25k questions in 5 hours. This is a testament of the quality of our
Open-Platypus dataset, and opens opportunities for more improvements in the
field. Project page: https://platypus-llm.github.io