ChatPaper.aiChatPaper

Rapporto Tecnico Hala: Costruzione di Modelli di Istruzione e Traduzione Centrati sull'Arabo su Larga Scala

Hala Technical Report: Building Arabic-Centric Instruction & Translation Models at Scale

September 17, 2025
Autori: Hasan Abed Al Kader Hammoud, Mohammad Zbeeb, Bernard Ghanem
cs.AI

Abstract

Presentiamo Hala, una famiglia di modelli di istruzione e traduzione centrati sull'arabo, sviluppati con la nostra pipeline di traduzione e ottimizzazione. Iniziamo comprimendo un forte modello insegnante AR↔EN in FP8 (ottenendo un throughput circa 2 volte superiore senza perdita di qualità) e lo utilizziamo per creare supervisione bilingue ad alta fedeltà. Successivamente, un modello linguistico leggero LFM2-1.2B viene fine-tuned su questi dati e utilizzato per tradurre set di istruzioni di alta qualità dall'inglese all'arabo, producendo un corpus su scala milionaria adattato al seguimento delle istruzioni. Addestriamo i modelli Hala con 350M, 700M, 1.2B e 9B di parametri, e applichiamo la fusione slerp per bilanciare la specializzazione in arabo con i punti di forza del modello base. Su benchmark centrati sull'arabo, Hala raggiunge risultati all'avanguardia sia nella categoria "nano" (≤2B) che "small" (7-9B), superando i loro modelli base. Rilasciamo modelli, dati, valutazioni e ricette per accelerare la ricerca nell'NLP arabo.
English
We present Hala, a family of Arabic-centric instruction and translation models built with our translate-and-tune pipeline. We first compress a strong ARleftrightarrowEN teacher to FP8 (yielding sim2times higher throughput with no quality loss) and use it to create high-fidelity bilingual supervision. A lightweight language model LFM2-1.2B is then fine-tuned on this data and used to translate high-quality English instruction sets into Arabic, producing a million-scale corpus tailored to instruction following. We train Hala models at 350M, 700M, 1.2B, and 9B parameters, and apply slerp merging to balance Arabic specialization with base-model strengths. On Arabic-centric benchmarks, Hala achieves state-of-the-art results within both the "nano" (leq2B) and "small" (7-9B) categories, outperforming their bases. We release models, data, evaluation, and recipes to accelerate research in Arabic NLP.
PDF873September 18, 2025