Babel: Offene multilinguale Large Language Models, die über 90 % der weltweiten Sprecher abdeckenBabel: Open Multilingual Large Language Models Serving Over 90% of
Global Speakers
Große Sprachmodelle (LLMs) haben die natürliche Sprachverarbeitung (NLP) revolutioniert, dennoch bleiben quelloffene mehrsprachige LLMs rar, wobei bestehende Modelle oft in ihrer Sprachabdeckung begrenzt sind. Solche Modelle priorisieren typischerweise gut ausgestattete Sprachen, während weit verbreitete, aber unterversorgte Sprachen häufig übersehen werden. Um diese Disparität zu beheben, stellen wir Babel vor, ein quelloffenes mehrsprachiges LLM, das die 25 meistgesprochenen Sprachen abdeckt, über 90 % der Weltbevölkerung unterstützt und viele Sprachen einschließt, die von anderen quelloffenen mehrsprachigen LLMs vernachlässigt werden. Im Gegensatz zu traditionellen Ansätzen des fortgesetzten Vortrainings erweitert Babel seine Parameteranzahl durch eine Schichtenerweiterungstechnik, die die Leistungsgrenze von Babel erhöht. Wir führen zwei Varianten ein: Babel-9B, das für effiziente Inferenz und Feinabstimmung konzipiert ist, und Babel-83B, das einen neuen Maßstab für quelloffene mehrsprachige LLMs setzt. Umfangreiche Bewertungen in mehrsprachigen Aufgaben demonstrieren seine überlegene Leistung im Vergleich zu quelloffenen LLMs vergleichbarer Größe. Darüber hinaus erreicht Babel mit quelloffenen, überwachten Feinabstimmungsdatensätzen bemerkenswerte Leistungen, wobei Babel-9B-Chat unter 10B-großen LLMs führend ist und Babel-83B-Chat einen neuen Standard für mehrsprachige Aufgaben setzt und das Niveau kommerzieller Modelle erreicht.