Aya 模型:一個經過微調的開放存取多語言語言模型Aya Model: An Instruction Finetuned Open-Access Multilingual Language
Model
最近在大型語言模型(LLMs)方面取得的突破集中在少數數據豐富的語言上。如何擴大突破性成果的使用範圍,超越第一類語言呢?我們的研究引入了Aya,一個大規模多語言生成語言模型,可以遵循101種語言的指令,其中超過50%被視為資源較少。Aya在大多數任務上表現優於mT0和BLOOMZ,同時涵蓋了兩倍數量的語言。我們引入了廣泛的新評估套件,擴展了跨99種語言的多語言評估的最新技術,包括區分性和生成性任務、人類評估以及模擬勝率,涵蓋了留存任務和分發性能。此外,我們對最佳微調混合組成、數據修剪以及模型的毒性、偏見和安全性進行了詳細調查。我們在https://hf.co/CohereForAI/aya-101上開源我們的指令數據集和模型。