ChatPaper.aiChatPaper

Aurora-M: Il primo modello linguistico multilingue open source sottoposto a red teaming in conformità con l'ordine esecutivo degli Stati Uniti

Aurora-M: The First Open Source Multilingual Language Model Red-teamed according to the U.S. Executive Order

March 30, 2024
Autori: Taishi Nakamura, Mayank Mishra, Simone Tedeschi, Yekun Chai, Jason T Stillerman, Felix Friedrich, Prateek Yadav, Tanmay Laud, Vu Minh Chien, Terry Yue Zhuo, Diganta Misra, Ben Bogin, Xuan-Son Vu, Marzena Karpinska, Arnav Varma Dantuluri, Wojciech Kusa, Tommaso Furlanello, Rio Yokota, Niklas Muennighoff, Suhas Pai, Tosin Adewumi, Veronika Laippala, Xiaozhe Yao, Adalberto Junior, Alpay Ariyak, Aleksandr Drozd, Jordan Clive, Kshitij Gupta, Liangyu Chen, Qi Sun, Ken Tsui, Noah Persaud, Nour Fahmy, Tianlong Chen, Mohit Bansal, Nicolo Monti, Tai Dang, Ziyang Luo, Tien-Tung Bui, Roberto Navigli, Virendra Mehta, Matthew Blumberg, Victor May, Huu Nguyen, Sampo Pyysalo
cs.AI

Abstract

I modelli linguistici preaddestrati sono alla base di diverse applicazioni di intelligenza artificiale, ma il loro elevato costo computazionale per l'addestramento ne limita l'accessibilità. Iniziative come BLOOM e StarCoder mirano a democratizzare l'accesso ai modelli preaddestrati per uno sviluppo comunitario collaborativo. Tuttavia, questi modelli esistenti affrontano diverse sfide: capacità multilingue limitate, preaddestramento continuo che causa il fenomeno della dimenticanza catastrofica, mentre il preaddestramento da zero è computazionalmente costoso, e la conformità con le leggi sulla sicurezza e lo sviluppo dell'IA. Questo articolo presenta Aurora-M, un modello open-source multilingue da 15 miliardi di parametri addestrato su inglese, finlandese, hindi, giapponese, vietnamita e codice. Preaddestrato in modo continuativo a partire da StarCoderPlus su 435 miliardi di token aggiuntivi, Aurora-M supera i 2 trilioni di token nel conteggio totale dei token di addestramento. È il primo modello open-source multilingue fine-tuned su istruzioni di sicurezza revisionate da esseri umani, allineando così il suo sviluppo non solo con le considerazioni convenzionali del red-teaming, ma anche con le specifiche preoccupazioni espresse nell'Ordine Esecutivo Biden-Harris sullo Sviluppo e l'Uso Sicuro, Protetto e Affidabile dell'Intelligenza Artificiale. Aurora-M è rigorosamente valutato su vari compiti e lingue, dimostrando robustezza contro la dimenticanza catastrofica e superando le alternative in contesti multilingue, in particolare nelle valutazioni di sicurezza. Per promuovere uno sviluppo responsabile dei modelli linguistici open-source, Aurora-M e le sue varianti sono rilasciati su https://huggingface.co/collections/aurora-m/aurora-m-models-65fdfdff62471e09812f5407.
English
Pretrained language models underpin several AI applications, but their high computational cost for training limits accessibility. Initiatives such as BLOOM and StarCoder aim to democratize access to pretrained models for collaborative community development. However, such existing models face challenges: limited multilingual capabilities, continual pretraining causing catastrophic forgetting, whereas pretraining from scratch is computationally expensive, and compliance with AI safety and development laws. This paper presents Aurora-M, a 15B parameter multilingual open-source model trained on English, Finnish, Hindi, Japanese, Vietnamese, and code. Continually pretrained from StarCoderPlus on 435 billion additional tokens, Aurora-M surpasses 2 trillion tokens in total training token count. It is the first open-source multilingual model fine-tuned on human-reviewed safety instructions, thus aligning its development not only with conventional red-teaming considerations, but also with the specific concerns articulated in the Biden-Harris Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. Aurora-M is rigorously evaluated across various tasks and languages, demonstrating robustness against catastrophic forgetting and outperforming alternatives in multilingual settings, particularly in safety evaluations. To promote responsible open-source LLM development, Aurora-M and its variants are released at https://huggingface.co/collections/aurora-m/aurora-m-models-65fdfdff62471e09812f5407 .
PDF421February 8, 2026