Babel : Modèles de langage multilingues ouverts desservant plus de 90 % des locuteurs mondiauxBabel: Open Multilingual Large Language Models Serving Over 90% of
Global Speakers
Les grands modèles de langage (LLMs) ont révolutionné le traitement automatique du langage naturel (NLP), mais les LLMs multilingues open-source restent rares, les modèles existants étant souvent limités en termes de couverture linguistique. Ces modèles privilégient généralement les langues bien dotées en ressources, tandis que les langues largement parlées mais sous-dotées sont souvent négligées. Pour remédier à cette disparité, nous présentons Babel, un LLM multilingue open-source qui couvre les 25 langues les plus parlées, prend en charge plus de 90 % de la population mondiale et inclut de nombreuses langues ignorées par d'autres LLMs multilingues open-source. Contrairement aux approches traditionnelles de pré-entraînement continu, Babel étend son nombre de paramètres grâce à une technique d'extension de couches qui élève le plafond de performance de Babel. Nous introduisons deux variantes : Babel-9B, conçu pour une inférence et un fine-tuning efficaces, et Babel-83B, qui établit un nouveau standard pour les LLMs multilingues open-source. Des évaluations approfondies sur des tâches multilingues démontrent sa performance supérieure par rapport aux LLMs open-source de taille comparable. De plus, en utilisant des ensembles de données de fine-tuning supervisé open-source, Babel obtient des performances remarquables, avec Babel-9B-Chat en tête parmi les LLMs de 10 milliards de paramètres et Babel-83B-Chat établissant un nouveau standard pour les tâches multilingues, atteignant le niveau des modèles commerciaux.