Klein, aber fein: Aya überbrückt Größe und mehrsprachige Tiefe
Tiny Aya: Bridging Scale and Multilingual Depth
March 12, 2026
Autoren: Alejandro R. Salamanca, Diana Abagyan, Daniel D'souza, Ammar Khairi, David Mora, Saurabh Dash, Viraat Aryabumi, Sara Rajaee, Mehrnaz Mofakhami, Ananya Sahu, Thomas Euyang, Brittawnya Prince, Madeline Smith, Hangyu Lin, Acyr Locatelli, Sara Hooker, Tom Kocmi, Aidan Gomez, Ivan Zhang, Phil Blunsom, Nick Frosst, Joelle Pineau, Beyza Ermis, Ahmet Üstün, Julia Kreutzer, Marzieh Fadaee
cs.AI
Zusammenfassung
Tiny Aya definiert neu, was ein kleines mehrsprachiges Sprachmodell leisten kann. Das Modell wurde auf 70 Sprachen trainiert und durch regionsbewusstes Nachtraining verfeinert. Es bietet mit nur 3,35 Milliarden Parametern state-of-the-art Übersetzungsqualität, ein starkes mehrsprachiges Verständnis und eine hochwertige Generierung in den Zielsprachen. Die Veröffentlichung umfasst ein vortrainiertes Basismodell, eine global ausgewogene, instruktionsfeinabgestimmte Variante und drei regionsspezialisierte Modelle für Sprachen aus Afrika, Südasien, Europa, dem asiatisch-pazifischen Raum und Westasien. Dieser Bericht erläutert die Trainingsstrategie, die Datenzusammensetzung und den umfassenden Evaluierungsrahmen hinter Tiny Aya und präsentiert einen alternativen Skalierungspfad für multilinguale KI: einen Pfad, der auf Effizienz, ausgewogener Leistung über alle Sprachen hinweg und praktischer Einsatzfähigkeit ausgerichtet ist.
English
Tiny Aya redefines what a small multilingual language model can achieve. Trained on 70 languages and refined through region-aware posttraining, it delivers state-of-the-art in translation quality, strong multilingual understanding, and high-quality target-language generation, all with just 3.35B parameters. The release includes a pretrained foundation model, a globally balanced instruction-tuned variant, and three region-specialized models targeting languages from Africa, South Asia, Europe, Asia-Pacific, and West Asia. This report details the training strategy, data composition, and comprehensive evaluation framework behind Tiny Aya, and presents an alternative scaling path for multilingual AI: one centered on efficiency, balanced performance across languages, and practical deployment.