ChatPaper.aiChatPaper

OpenELM : Une famille de modèles de langage efficaces avec un cadre d'entraînement et d'inférence open-source

OpenELM: An Efficient Language Model Family with Open-source Training and Inference Framework

April 22, 2024
Auteurs: Sachin Mehta, Mohammad Hossein Sekhavat, Qingqing Cao, Maxwell Horton, Yanzi Jin, Chenfan Sun, Iman Mirzadeh, Mahyar Najibi, Dmitry Belenko, Peter Zatloukal, Mohammad Rastegari
cs.AI

Résumé

La reproductibilité et la transparence des grands modèles de langage sont essentielles pour faire progresser la recherche ouverte, garantir la fiabilité des résultats et permettre l'étude des biais dans les données et les modèles, ainsi que des risques potentiels. Dans cette optique, nous publions OpenELM, un modèle de langage ouvert de pointe. OpenELM utilise une stratégie de mise à l'échelle par couches pour allouer efficacement les paramètres au sein de chaque couche du modèle de transformateur, ce qui améliore la précision. Par exemple, avec un budget d'environ un milliard de paramètres, OpenELM montre une amélioration de 2,36 % en précision par rapport à OLMo tout en nécessitant deux fois moins de jetons de pré-entraînement. Contrairement aux pratiques antérieures qui ne fournissaient que les poids du modèle et le code d'inférence, et qui pré-entraînaient sur des ensembles de données privés, notre publication inclut le cadre complet pour l'entraînement et l'évaluation du modèle de langage sur des ensembles de données publiquement disponibles, y compris les journaux d'entraînement, plusieurs points de contrôle et les configurations de pré-entraînement. Nous publions également le code pour convertir les modèles en bibliothèque MLX pour l'inférence et le réglage fin sur les appareils Apple. Cette publication exhaustive vise à renforcer et à autonomiser la communauté de recherche ouverte, ouvrant la voie à de futures initiatives de recherche ouverte. Notre code source, ainsi que les poids des modèles pré-entraînés et les recettes d'entraînement, sont disponibles à l'adresse suivante : https://github.com/apple/corenet. De plus, les modèles \model peuvent être trouvés sur HuggingFace à l'adresse : https://huggingface.co/apple/OpenELM.
English
The reproducibility and transparency of large language models are crucial for advancing open research, ensuring the trustworthiness of results, and enabling investigations into data and model biases, as well as potential risks. To this end, we release OpenELM, a state-of-the-art open language model. OpenELM uses a layer-wise scaling strategy to efficiently allocate parameters within each layer of the transformer model, leading to enhanced accuracy. For example, with a parameter budget of approximately one billion parameters, OpenELM exhibits a 2.36% improvement in accuracy compared to OLMo while requiring 2times fewer pre-training tokens. Diverging from prior practices that only provide model weights and inference code, and pre-train on private datasets, our release includes the complete framework for training and evaluation of the language model on publicly available datasets, including training logs, multiple checkpoints, and pre-training configurations. We also release code to convert models to MLX library for inference and fine-tuning on Apple devices. This comprehensive release aims to empower and strengthen the open research community, paving the way for future open research endeavors. Our source code along with pre-trained model weights and training recipes is available at https://github.com/apple/corenet. Additionally, \model models can be found on HuggingFace at: https://huggingface.co/apple/OpenELM.

Summary

AI-Generated Summary

PDF12814December 15, 2024