Meltemi : Le premier grand modèle de langage ouvert pour le grecMeltemi: The first open Large Language Model for Greek
Nous décrivons le développement et les capacités de Meltemi 7B, le premier grand modèle de langage ouvert pour la langue grecque. Meltemi 7B possède 7 milliards de paramètres et est entraîné sur un corpus grec de 40 milliards de tokens. Pour le développement de Meltemi 7B, nous avons adapté Mistral en effectuant un pré-entraînement continu sur le corpus grec. Meltemi 7B intègre des informations actualisées jusqu'à septembre 2023. Par ailleurs, nous avons traduit et organisé un corpus d'instructions en grec, qui a été utilisé pour l'ajustement par instruction d'un modèle de conversation, nommé Meltemi 7B Instruct. Une attention particulière a été portée à l'alignement et à l'élimination de contenu toxique pour Meltemi 7B Instruct. Les modèles développés sont évalués sur un large ensemble de corpus d'évaluation collectés, et des exemples de prompts et de réponses sont présentés. Meltemi 7B et Meltemi 7B Instruct sont tous deux disponibles à l'adresse https://huggingface.co/ilsp sous licence Apache 2.0.