ChatPaper.aiChatPaper

Технический отчет Hala: Создание масштабируемых моделей для инструкций и перевода с ориентацией на арабский язык

Hala Technical Report: Building Arabic-Centric Instruction & Translation Models at Scale

September 17, 2025
Авторы: Hasan Abed Al Kader Hammoud, Mohammad Zbeeb, Bernard Ghanem
cs.AI

Аннотация

Представляем Hala — семейство моделей для инструкций и перевода, ориентированных на арабский язык, созданных с использованием нашего конвейера перевода и настройки. Сначала мы сжимаем мощную модель-учитель AR↔EN до формата FP8 (что дает примерно двукратное увеличение пропускной способности без потери качества) и используем её для создания высококачественного двуязычного обучающего материала. Затем легковесная языковая модель LFM2-1.2B дообучается на этих данных и применяется для перевода высококачественных наборов инструкций с английского на арабский, создавая корпус объемом в миллионы примеров, адаптированный для выполнения инструкций. Мы обучаем модели Hala с 350M, 700M, 1.2B и 9B параметрами и применяем slerp-слияние для баланса специализации на арабском языке с сильными сторонами базовых моделей. На арабско-ориентированных бенчмарках Hala достигает наилучших результатов как в категории "nano" (≤2B), так и в категории "small" (7-9B), превосходя свои базовые модели. Мы публикуем модели, данные, методы оценки и рецепты для ускорения исследований в области обработки естественного языка для арабского языка.
English
We present Hala, a family of Arabic-centric instruction and translation models built with our translate-and-tune pipeline. We first compress a strong ARleftrightarrowEN teacher to FP8 (yielding sim2times higher throughput with no quality loss) and use it to create high-fidelity bilingual supervision. A lightweight language model LFM2-1.2B is then fine-tuned on this data and used to translate high-quality English instruction sets into Arabic, producing a million-scale corpus tailored to instruction following. We train Hala models at 350M, 700M, 1.2B, and 9B parameters, and apply slerp merging to balance Arabic specialization with base-model strengths. On Arabic-centric benchmarks, Hala achieves state-of-the-art results within both the "nano" (leq2B) and "small" (7-9B) categories, outperforming their bases. We release models, data, evaluation, and recipes to accelerate research in Arabic NLP.
PDF591September 18, 2025