Meltemi: O primeiro Modelo de Linguagem Grande aberto para o GregoMeltemi: The first open Large Language Model for Greek
Descrevemos o desenvolvimento e as capacidades do Meltemi 7B, o primeiro Modelo de Linguagem Grande aberto para a língua grega. O Meltemi 7B possui 7 bilhões de parâmetros e é treinado em um corpus grego de 40 bilhões de tokens. Para o desenvolvimento do Meltemi 7B, adaptamos o Mistral, por meio de pré-treinamento contínuo no Corpus Grego. O Meltemi 7B contém informações atualizadas até setembro de 2023. Além disso, traduzimos e organizamos um corpus de instruções gregas, que foi utilizado para o ajuste de instruções de um modelo de chat, chamado Meltemi 7B Instruct. Foi dada atenção especial ao alinhamento e à remoção de conteúdo tóxico para o Meltemi 7B Instruct. Os modelos desenvolvidos são avaliados em um amplo conjunto de corpora de avaliação coletados, e exemplos de estímulos e respostas são apresentados. Tanto o Meltemi 7B quanto o Meltemi 7B Instruct estão disponíveis em https://huggingface.co/ilsp sob a licença Apache 2.0.