ChatPaper.aiChatPaper

Nile-Chat: Modelli Linguistici Egiziani per Alfabeti Arabi e Latini

Nile-Chat: Egyptian Language Models for Arabic and Latin Scripts

July 6, 2025
Autori: Guokan Shang, Hadi Abdine, Ahmad Chamma, Amr Mohamed, Mohamed Anwar, Abdelaziz Bounhar, Omar El Herraoui, Preslav Nakov, Michalis Vazirgiannis, Eric Xing
cs.AI

Abstract

Presentiamo Nile-Chat-4B, 3x4B-A6B e 12B, una collezione di LLM per il dialetto egiziano, progettati in modo unico per comprendere e generare testi scritti sia in caratteri arabi che latini. In particolare, con Nile-Chat-3x4B-A6B, introduciamo un nuovo approccio di adattamento linguistico sfruttando la strategia Branch-Train-MiX per fondere esperti specializzati nei diversi caratteri in un unico modello MoE. I nostri modelli Nile-Chat superano significativamente i principali LLM multilingue e arabi, come LLaMa, Jais e ALLaM, sui nostri nuovi benchmark di valutazione egiziani, che coprono sia compiti di comprensione che generativi. In particolare, il nostro modello 12B ottiene un miglioramento delle prestazioni del 14,4% rispetto a Qwen2.5-14B-Instruct sui benchmark in caratteri latini. Tutte le nostre risorse sono pubblicamente disponibili. Crediamo che questo lavoro presenti una metodologia completa per adattare gli LLM a lingue con doppio sistema di scrittura, affrontando un aspetto spesso trascurato nello sviluppo moderno degli LLM.
English
We introduce Nile-Chat-4B, 3x4B-A6B, and 12B, a collection of LLMs for Egyptian dialect, uniquely designed to understand and generate texts written in both Arabic and Latin scripts. Specifically, with Nile-Chat-3x4B-A6B, we introduce a novel language adaptation approach by leveraging the Branch-Train-MiX strategy to merge script-specialized experts, into a single MoE model. Our Nile-Chat models significantly outperform leading multilingual and Arabic LLMs, such as LLaMa, Jais, and ALLaM, on our newly introduced Egyptian evaluation benchmarks, which span both understanding and generative tasks. Notably, our 12B model yields a 14.4% performance gain over Qwen2.5-14B-Instruct on Latin-script benchmarks. All our resources are publicly available. We believe this work presents a comprehensive methodology for adapting LLMs to dual-script languages, addressing an often overlooked aspect in modern LLM development.
PDF191July 9, 2025