Aurora-M: El primer modelo de lenguaje multilingüe de código abierto sometido a pruebas de resistencia según la Orden Ejecutiva de los Estados Unidos
Aurora-M: The First Open Source Multilingual Language Model Red-teamed according to the U.S. Executive Order
March 30, 2024
Autores: Taishi Nakamura, Mayank Mishra, Simone Tedeschi, Yekun Chai, Jason T Stillerman, Felix Friedrich, Prateek Yadav, Tanmay Laud, Vu Minh Chien, Terry Yue Zhuo, Diganta Misra, Ben Bogin, Xuan-Son Vu, Marzena Karpinska, Arnav Varma Dantuluri, Wojciech Kusa, Tommaso Furlanello, Rio Yokota, Niklas Muennighoff, Suhas Pai, Tosin Adewumi, Veronika Laippala, Xiaozhe Yao, Adalberto Junior, Alpay Ariyak, Aleksandr Drozd, Jordan Clive, Kshitij Gupta, Liangyu Chen, Qi Sun, Ken Tsui, Noah Persaud, Nour Fahmy, Tianlong Chen, Mohit Bansal, Nicolo Monti, Tai Dang, Ziyang Luo, Tien-Tung Bui, Roberto Navigli, Virendra Mehta, Matthew Blumberg, Victor May, Huu Nguyen, Sampo Pyysalo
cs.AI
Resumen
Los modelos de lenguaje preentrenados son la base de varias aplicaciones de IA, pero su alto costo computacional para el entrenamiento limita su accesibilidad. Iniciativas como BLOOM y StarCoder buscan democratizar el acceso a modelos preentrenados para el desarrollo colaborativo de la comunidad. Sin embargo, estos modelos existentes enfrentan desafíos: capacidades multilingües limitadas, el preentrenamiento continuo que provoca olvido catastrófico, mientras que el preentrenamiento desde cero es computacionalmente costoso, y el cumplimiento de las leyes de seguridad y desarrollo de IA. Este artículo presenta Aurora-M, un modelo multilingüe de código abierto con 15 mil millones de parámetros entrenado en inglés, finlandés, hindi, japonés, vietnamita y código. Preentrenado continuamente a partir de StarCoderPlus con 435 mil millones de tokens adicionales, Aurora-M supera los 2 billones de tokens en el recuento total de tokens de entrenamiento. Es el primer modelo multilingüe de código abierto ajustado con instrucciones de seguridad revisadas por humanos, alineando su desarrollo no solo con consideraciones convencionales de red-teaming, sino también con las preocupaciones específicas articuladas en la Orden Ejecutiva Biden-Harris sobre el Desarrollo y Uso Seguro, Seguro y Confiable de la Inteligencia Artificial. Aurora-M es rigurosamente evaluado en diversas tareas y idiomas, demostrando robustez contra el olvido catastrófico y superando a las alternativas en entornos multilingües, particularmente en evaluaciones de seguridad. Para promover el desarrollo responsable de modelos de lenguaje de código abierto, Aurora-M y sus variantes se publican en https://huggingface.co/collections/aurora-m/aurora-m-models-65fdfdff62471e09812f5407.
English
Pretrained language models underpin several AI applications, but their high
computational cost for training limits accessibility. Initiatives such as BLOOM
and StarCoder aim to democratize access to pretrained models for collaborative
community development. However, such existing models face challenges: limited
multilingual capabilities, continual pretraining causing catastrophic
forgetting, whereas pretraining from scratch is computationally expensive, and
compliance with AI safety and development laws. This paper presents Aurora-M, a
15B parameter multilingual open-source model trained on English, Finnish,
Hindi, Japanese, Vietnamese, and code. Continually pretrained from
StarCoderPlus on 435 billion additional tokens, Aurora-M surpasses 2 trillion
tokens in total training token count. It is the first open-source multilingual
model fine-tuned on human-reviewed safety instructions, thus aligning its
development not only with conventional red-teaming considerations, but also
with the specific concerns articulated in the Biden-Harris Executive Order on
the Safe, Secure, and Trustworthy Development and Use of Artificial
Intelligence. Aurora-M is rigorously evaluated across various tasks and
languages, demonstrating robustness against catastrophic forgetting and
outperforming alternatives in multilingual settings, particularly in safety
evaluations. To promote responsible open-source LLM development, Aurora-M and
its variants are released at
https://huggingface.co/collections/aurora-m/aurora-m-models-65fdfdff62471e09812f5407 .Summary
AI-Generated Summary