Aurora-M: Het eerste open-source meertalige taalmodel dat is getest volgens de richtlijnen van het Amerikaanse uitvoerend bevel
Aurora-M: The First Open Source Multilingual Language Model Red-teamed according to the U.S. Executive Order
March 30, 2024
Auteurs: Taishi Nakamura, Mayank Mishra, Simone Tedeschi, Yekun Chai, Jason T Stillerman, Felix Friedrich, Prateek Yadav, Tanmay Laud, Vu Minh Chien, Terry Yue Zhuo, Diganta Misra, Ben Bogin, Xuan-Son Vu, Marzena Karpinska, Arnav Varma Dantuluri, Wojciech Kusa, Tommaso Furlanello, Rio Yokota, Niklas Muennighoff, Suhas Pai, Tosin Adewumi, Veronika Laippala, Xiaozhe Yao, Adalberto Junior, Alpay Ariyak, Aleksandr Drozd, Jordan Clive, Kshitij Gupta, Liangyu Chen, Qi Sun, Ken Tsui, Noah Persaud, Nour Fahmy, Tianlong Chen, Mohit Bansal, Nicolo Monti, Tai Dang, Ziyang Luo, Tien-Tung Bui, Roberto Navigli, Virendra Mehta, Matthew Blumberg, Victor May, Huu Nguyen, Sampo Pyysalo
cs.AI
Samenvatting
Voorgetrainde taalmodellen vormen de basis van verschillende AI-toepassingen, maar hun hoge rekenkosten voor training beperken de toegankelijkheid. Initiatieven zoals BLOOM en StarCoder streven ernaar de toegang tot voorgetrainde modellen te democratiseren voor gezamenlijke gemeenschapsontwikkeling. Echter, bestaande modellen kampen met uitdagingen: beperkte meertalige mogelijkheden, voortdurende voorpretraining die catastrofaal vergeten veroorzaakt, terwijl voorpretraining vanaf nul rekenkundig kostbaar is, en naleving van AI-veiligheids- en ontwikkelingswetten. Dit artikel presenteert Aurora-M, een 15B-parameter meertalig open-source model getraind op Engels, Fins, Hindi, Japans, Vietnamees en code. Voortdurend voorgetraind vanaf StarCoderPlus op 435 miljard extra tokens, overschrijdt Aurora-M 2 biljoen tokens in totale trainings-tokenaantallen. Het is het eerste open-source meertalige model dat is afgestemd op door mensen beoordeelde veiligheidsinstructies, waardoor de ontwikkeling ervan niet alleen aansluit bij conventionele red-teaming overwegingen, maar ook bij de specifieke zorgen die zijn geuit in de Biden-Harris Executive Order over de Veilige, Beveiligde en Betrouwbare Ontwikkeling en het Gebruik van Kunstmatige Intelligentie. Aurora-M wordt grondig geëvalueerd over verschillende taken en talen, waarbij het robuustheid tegen catastrofaal vergeten aantoont en alternatieven overtreft in meertalige omgevingen, met name in veiligheidsevaluaties. Om verantwoorde open-source LLM-ontwikkeling te bevorderen, worden Aurora-M en zijn varianten vrijgegeven op https://huggingface.co/collections/aurora-m/aurora-m-models-65fdfdff62471e09812f5407.
English
Pretrained language models underpin several AI applications, but their high
computational cost for training limits accessibility. Initiatives such as BLOOM
and StarCoder aim to democratize access to pretrained models for collaborative
community development. However, such existing models face challenges: limited
multilingual capabilities, continual pretraining causing catastrophic
forgetting, whereas pretraining from scratch is computationally expensive, and
compliance with AI safety and development laws. This paper presents Aurora-M, a
15B parameter multilingual open-source model trained on English, Finnish,
Hindi, Japanese, Vietnamese, and code. Continually pretrained from
StarCoderPlus on 435 billion additional tokens, Aurora-M surpasses 2 trillion
tokens in total training token count. It is the first open-source multilingual
model fine-tuned on human-reviewed safety instructions, thus aligning its
development not only with conventional red-teaming considerations, but also
with the specific concerns articulated in the Biden-Harris Executive Order on
the Safe, Secure, and Trustworthy Development and Use of Artificial
Intelligence. Aurora-M is rigorously evaluated across various tasks and
languages, demonstrating robustness against catastrophic forgetting and
outperforming alternatives in multilingual settings, particularly in safety
evaluations. To promote responsible open-source LLM development, Aurora-M and
its variants are released at
https://huggingface.co/collections/aurora-m/aurora-m-models-65fdfdff62471e09812f5407 .