Meltemi:ギリシャ語向け初のオープン大規模言語モデルMeltemi: The first open Large Language Model for Greek
ギリシャ語向け初のオープンな大規模言語モデルであるMeltemi 7Bの開発と機能について説明する。Meltemi 7Bは70億のパラメータを持ち、400億トークンのギリシャ語コーパスで学習されている。Meltemi 7Bの開発にあたっては、Mistralを基盤とし、ギリシャ語コーパスを用いた継続的な事前学習を実施した。Meltemi 7Bは2023年9月までの最新情報を含んでいる。さらに、ギリシャ語の指示コーパスを翻訳・整備し、これを活用してチャットモデル「Meltemi 7B Instruct」の指示チューニングを行った。Meltemi 7B Instructでは、アライメントと有害コンテンツの除去に特に注意を払っている。開発されたモデルは、収集された多様な評価コーパスで評価され、プロンプトと応答の例が提示されている。Meltemi 7BとMeltemi 7B Instructは、Apache 2.0ライセンスの下、https://huggingface.co/ilsp で公開されている。