ChatPaper.aiChatPaper

Platypus: Snelle, Goedkope en Krachtige Verfijning van LLM's

Platypus: Quick, Cheap, and Powerful Refinement of LLMs

August 14, 2023
Auteurs: Ariel N. Lee, Cole J. Hunter, Nataniel Ruiz
cs.AI

Samenvatting

We presenteren Platypus, een familie van fijn afgestelde en samengevoegde Large Language Models (LLMs) die de sterkste prestaties behaalt en momenteel op de eerste plaats staat in HuggingFace's Open LLM Leaderboard vanaf de releasedatum van dit werk. In dit werk beschrijven we (1) onze gecureerde dataset Open-Platypus, die een subset is van andere open datasets en die we vrijgeven aan het publiek, (2) ons proces van fijn afstellen en samenvoegen van LoRA-modules om het sterke voorafgaande kennisbehoud van vooraf getrainde LLMs te behouden, terwijl specifieke domeinkennis naar voren wordt gebracht, (3) onze inspanningen om te controleren op lekken van testgegevens en contaminatie in de trainingsgegevens, wat toekomstig onderzoek kan informeren. Specifiek behaalt de Platypus-familie sterke prestaties in kwantitatieve LLM-metingen over verschillende modelgroottes, en staat bovenaan de globale Open LLM-leaderboard terwijl slechts een fractie van de fijn afstelgegevens en totale rekenkracht wordt gebruikt die vereist zijn voor andere state-of-the-art fijn afgestelde LLMs. In het bijzonder kan een 13B Platypus-model worden getraind op een enkele A100 GPU met 25k vragen in 5 uur. Dit is een bewijs van de kwaliteit van onze Open-Platypus dataset, en opent mogelijkheden voor verdere verbeteringen in het veld. Projectpagina: https://platypus-llm.github.io
English
We present Platypus, a family of fine-tuned and merged Large Language Models (LLMs) that achieves the strongest performance and currently stands at first place in HuggingFace's Open LLM Leaderboard as of the release date of this work. In this work we describe (1) our curated dataset Open-Platypus, that is a subset of other open datasets and which we release to the public (2) our process of fine-tuning and merging LoRA modules in order to conserve the strong prior of pretrained LLMs, while bringing specific domain knowledge to the surface (3) our efforts in checking for test data leaks and contamination in the training data, which can inform future research. Specifically, the Platypus family achieves strong performance in quantitative LLM metrics across model sizes, topping the global Open LLM leaderboard while using just a fraction of the fine-tuning data and overall compute that are required for other state-of-the-art fine-tuned LLMs. In particular, a 13B Platypus model can be trained on a single A100 GPU using 25k questions in 5 hours. This is a testament of the quality of our Open-Platypus dataset, and opens opportunities for more improvements in the field. Project page: https://platypus-llm.github.io
PDF244February 8, 2026