Phi-3 기술 보고서: 휴대폰에서도 가능한 고성능 언어 모델Phi-3 Technical Report: A Highly Capable Language Model Locally on Your
Phone
우리는 3.8억 개의 파라미터를 가진 언어 모델인 phi-3-mini를 소개합니다. 이 모델은 3.3조 개의 토큰으로 학습되었으며, 학계 벤치마크와 내부 테스트를 통해 측정된 전반적인 성능은 Mixtral 8x7B 및 GPT-3.5와 맞먹습니다(예: phi-3-mini는 MMLU에서 69%, MT-bench에서 8.38점을 달성). 이 모델은 휴대폰에 배포할 수 있을 정도로 작으면서도 이러한 성능을 보입니다. 혁신은 전적으로 학습 데이터셋에 있으며, 이는 phi-2에 사용된 데이터셋의 확장 버전으로, 엄격하게 필터링된 웹 데이터와 합성 데이터로 구성됩니다. 또한 이 모델은 견고성, 안전성 및 채팅 형식에 맞추어 추가로 정렬되었습니다. 우리는 또한 4.8조 개의 토큰으로 학습된 7B 및 14B 모델인 phi-3-small과 phi-3-medium의 초기 파라미터 스케일링 결과를 제공합니다. 이 두 모델은 phi-3-mini보다 훨씬 더 뛰어난 성능을 보입니다(예: 각각 MMLU에서 75%와 78%, MT-bench에서 8.7과 8.9점을 달성).