Tiny Aya: Colmare il Divario tra Scala e Profondità Multilingue
Tiny Aya: Bridging Scale and Multilingual Depth
March 12, 2026
Autori: Alejandro R. Salamanca, Diana Abagyan, Daniel D'souza, Ammar Khairi, David Mora, Saurabh Dash, Viraat Aryabumi, Sara Rajaee, Mehrnaz Mofakhami, Ananya Sahu, Thomas Euyang, Brittawnya Prince, Madeline Smith, Hangyu Lin, Acyr Locatelli, Sara Hooker, Tom Kocmi, Aidan Gomez, Ivan Zhang, Phil Blunsom, Nick Frosst, Joelle Pineau, Beyza Ermis, Ahmet Üstün, Julia Kreutzer, Marzieh Fadaee
cs.AI
Abstract
Tiny Aya ridefinisce le potenzialità di un piccolo modello linguistico multilingue. Addestrato su 70 lingue e perfezionato mediante un post-addestramento sensibile alle regioni, offre prestazioni all'avanguardia nella qualità della traduzione, una solida comprensione multilingue e una generazione di alta qualità nella lingua di destinazione, il tutto con appena 3,35 miliardi di parametri. Il rilascio include un modello base pre-addestrato, una variante bilanciata a livello globale ottimizzata per seguire istruzioni e tre modelli specializzati per regioni che si concentrano sulle lingue di Africa, Asia meridionale, Europa, Asia-Pacifico e Asia occidentale. Questo rapporto descrive nel dettaglio la strategia di addestramento, la composizione dei dati e il quadro di valutazione completo alla base di Tiny Aya, e presenta un percorso di scalabilità alternativo per l'IA multilingue: un approccio incentrato sull'efficienza, su prestazioni bilanciate tra le lingue e sulla praticità di implementazione.
English
Tiny Aya redefines what a small multilingual language model can achieve. Trained on 70 languages and refined through region-aware posttraining, it delivers state-of-the-art in translation quality, strong multilingual understanding, and high-quality target-language generation, all with just 3.35B parameters. The release includes a pretrained foundation model, a globally balanced instruction-tuned variant, and three region-specialized models targeting languages from Africa, South Asia, Europe, Asia-Pacific, and West Asia. This report details the training strategy, data composition, and comprehensive evaluation framework behind Tiny Aya, and presents an alternative scaling path for multilingual AI: one centered on efficiency, balanced performance across languages, and practical deployment.