Tiny Aya: Uniendo Escala y Profundidad Multilingüe
Tiny Aya: Bridging Scale and Multilingual Depth
March 12, 2026
Autores: Alejandro R. Salamanca, Diana Abagyan, Daniel D'souza, Ammar Khairi, David Mora, Saurabh Dash, Viraat Aryabumi, Sara Rajaee, Mehrnaz Mofakhami, Ananya Sahu, Thomas Euyang, Brittawnya Prince, Madeline Smith, Hangyu Lin, Acyr Locatelli, Sara Hooker, Tom Kocmi, Aidan Gomez, Ivan Zhang, Phil Blunsom, Nick Frosst, Joelle Pineau, Beyza Ermis, Ahmet Üstün, Julia Kreutzer, Marzieh Fadaee
cs.AI
Resumen
Tiny Aya redefine lo que un modelo lingüístico pequeño y multilingüe puede lograr. Entrenado en 70 idiomas y refinado mediante un post-entrenamiento consciente de la región, ofrece una calidad de traducción de vanguardia, una sólida comprensión multilingüe y una generación de alta calidad en el idioma objetivo, todo con solo 3.350 millones de parámetros. La publicación incluye un modelo base preentrenado, una variante ajustada por instrucciones y equilibrada globalmente, y tres modelos especializados por región dirigidos a idiomas de África, Asia Meridional, Europa, Asia-Pacífico y Asia Occidental. Este informe detalla la estrategia de entrenamiento, la composición de los datos y el marco de evaluación integral detrás de Tiny Aya, y presenta una alternativa de escalado para la IA multilingüe: una centrada en la eficiencia, el rendimiento equilibrado entre idiomas y la implementación práctica.
English
Tiny Aya redefines what a small multilingual language model can achieve. Trained on 70 languages and refined through region-aware posttraining, it delivers state-of-the-art in translation quality, strong multilingual understanding, and high-quality target-language generation, all with just 3.35B parameters. The release includes a pretrained foundation model, a globally balanced instruction-tuned variant, and three region-specialized models targeting languages from Africa, South Asia, Europe, Asia-Pacific, and West Asia. This report details the training strategy, data composition, and comprehensive evaluation framework behind Tiny Aya, and presents an alternative scaling path for multilingual AI: one centered on efficiency, balanced performance across languages, and practical deployment.