ChatPaper.aiChatPaper

Platypus: 빠르고, 경제적이며, 강력한 LLM 정제 기술

Platypus: Quick, Cheap, and Powerful Refinement of LLMs

August 14, 2023
저자: Ariel N. Lee, Cole J. Hunter, Nataniel Ruiz
cs.AI

초록

본 논문에서는 HuggingFace의 Open LLM 리더보드에서 현재 1위를 차지하며 가장 강력한 성능을 보이는 미세 조정 및 병합된 대규모 언어 모델(LLM) 패밀리인 Platypus를 소개한다. 본 연구에서는 (1) 공개된 다른 데이터셋의 부분집합으로 구성된 Open-Platypus 데이터셋을 공개하고, (2) 사전 학습된 LLM의 강력한 사전 지식을 보존하면서 특정 도메인 지식을 표면화하기 위한 LoRA 모듈의 미세 조정 및 병합 과정을 설명하며, (3) 훈련 데이터에서 테스트 데이터 누출 및 오염 여부를 확인한 결과를 제시하여 향후 연구에 기여한다. 특히, Platypus 패밀리는 모델 크기에 걸쳐 양적 LLM 메트릭에서 강력한 성능을 달성하며, 다른 최첨단 미세 조정 LLM에 필요한 데이터와 컴퓨팅 자원의 일부만 사용하여 글로벌 Open LLM 리더보드 정상에 올랐다. 구체적으로, 13B 규모의 Platypus 모델은 단일 A100 GPU에서 25,000개의 질문을 5시간 동안 훈련시킬 수 있다. 이는 Open-Platypus 데이터셋의 품질을 입증하며, 해당 분야에서 더 많은 개선의 기회를 열어준다. 프로젝트 페이지: https://platypus-llm.github.io
English
We present Platypus, a family of fine-tuned and merged Large Language Models (LLMs) that achieves the strongest performance and currently stands at first place in HuggingFace's Open LLM Leaderboard as of the release date of this work. In this work we describe (1) our curated dataset Open-Platypus, that is a subset of other open datasets and which we release to the public (2) our process of fine-tuning and merging LoRA modules in order to conserve the strong prior of pretrained LLMs, while bringing specific domain knowledge to the surface (3) our efforts in checking for test data leaks and contamination in the training data, which can inform future research. Specifically, the Platypus family achieves strong performance in quantitative LLM metrics across model sizes, topping the global Open LLM leaderboard while using just a fraction of the fine-tuning data and overall compute that are required for other state-of-the-art fine-tuned LLMs. In particular, a 13B Platypus model can be trained on a single A100 GPU using 25k questions in 5 hours. This is a testament of the quality of our Open-Platypus dataset, and opens opportunities for more improvements in the field. Project page: https://platypus-llm.github.io
PDF244December 15, 2024