ハラ技術レポート:アラビア語中心の指示・翻訳モデルの大規模構築
Hala Technical Report: Building Arabic-Centric Instruction & Translation Models at Scale
September 17, 2025
著者: Hasan Abed Al Kader Hammoud, Mohammad Zbeeb, Bernard Ghanem
cs.AI
要旨
私たちは、アラビア語中心の指示と翻訳モデルのファミリーであるHalaを紹介します。このモデルは、私たちのtranslate-and-tuneパイプラインを用いて構築されました。まず、強力なAR↔EN教師モデルをFP8に圧縮し(品質の低下なしにスループットを約2倍向上)、高精度の二言語監視データを作成します。次に、軽量な言語モデルLFM2-1.2Bをこのデータでファインチューニングし、高品質な英語の指示セットをアラビア語に翻訳することで、指示追従に特化した百万規模のコーパスを生成します。Halaモデルは350M、700M、1.2B、および9Bパラメータでトレーニングされ、slerpマージングを適用してアラビア語特化とベースモデルの強みをバランスさせます。アラビア語中心のベンチマークにおいて、Halaは「ナノ」(≤2B)および「スモール」(7-9B)カテゴリの両方で最先端の結果を達成し、ベースモデルを上回ります。私たちは、アラビア語NLP研究を加速するために、モデル、データ、評価、およびレシピを公開します。
English
We present Hala, a family of Arabic-centric instruction and translation
models built with our translate-and-tune pipeline. We first compress a strong
ARleftrightarrowEN teacher to FP8 (yielding sim2times higher
throughput with no quality loss) and use it to create high-fidelity bilingual
supervision. A lightweight language model LFM2-1.2B is then fine-tuned on this
data and used to translate high-quality English instruction sets into Arabic,
producing a million-scale corpus tailored to instruction following. We train
Hala models at 350M, 700M, 1.2B, and 9B parameters, and apply slerp merging to
balance Arabic specialization with base-model strengths. On Arabic-centric
benchmarks, Hala achieves state-of-the-art results within both the "nano"
(leq2B) and "small" (7-9B) categories, outperforming their bases. We release
models, data, evaluation, and recipes to accelerate research in Arabic NLP.