Rapport technique Phi-3 : Un modèle de langage hautement performant directement sur votre téléphonePhi-3 Technical Report: A Highly Capable Language Model Locally on Your
Phone
Nous présentons phi-3-mini, un modèle de langage de 3,8 milliards de paramètres entraîné sur 3,3 billions de tokens, dont les performances globales, mesurées à la fois par des benchmarks académiques et des tests internes, rivalisent avec celles de modèles tels que Mixtral 8x7B et GPT-3.5 (par exemple, phi-3-mini atteint 69 % sur MMLU et 8,38 sur MT-bench), malgré une taille suffisamment réduite pour être déployé sur un téléphone. L'innovation réside entièrement dans notre jeu de données d'entraînement, une version augmentée de celui utilisé pour phi-2, composé de données web fortement filtrées et de données synthétiques. Le modèle est également davantage aligné pour la robustesse, la sécurité et le format de conversation. Nous fournissons également quelques résultats préliminaires de mise à l'échelle des paramètres avec des modèles de 7B et 14B entraînés sur 4,8T tokens, appelés phi-3-small et phi-3-medium, tous deux nettement plus performants que phi-3-mini (par exemple, respectivement 75 % et 78 % sur MMLU, et 8,7 et 8,9 sur MT-bench).