ChatPaper.aiChatPaper

Das Diretrizes à Prática: Um Novo Paradigma para a Avaliação de Modelos de Linguagem Árabe

From Guidelines to Practice: A New Paradigm for Arabic Language Model Evaluation

June 2, 2025
Autores: Serry Sibaee, Omer Nacar, Adel Ammar, Yasser Al-Habashi, Abdulrahman Al-Batati, Wadii Boulila
cs.AI

Resumo

Este artigo aborda lacunas críticas na avaliação de modelos de linguagem para o árabe, estabelecendo diretrizes teóricas abrangentes e introduzindo um novo framework de avaliação. Primeiramente, analisamos conjuntos de dados de avaliação existentes para o árabe, identificando problemas significativos em precisão linguística, alinhamento cultural e rigor metodológico. Para superar essas limitações em LLMs, apresentamos o Arabic Depth Mini Dataset (ADMD), uma coleção cuidadosamente curada de 490 perguntas desafiadoras abrangendo dez domínios principais (42 subdomínios, ver Figura 1). Utilizando o ADMD, avaliamos cinco modelos de linguagem líderes: GPT-4, Claude 3.5 Sonnet, Gemini Flash 1.5, CommandR 100B e Qwen-Max. Nossos resultados revelam variações significativas no desempenho dos modelos em diferentes domínios, com desafios particulares em áreas que exigem profundo entendimento cultural e conhecimento especializado. O Claude 3.5 Sonnet demonstrou a maior precisão geral, com 30%, mostrando força relativa em teoria matemática em árabe, língua árabe e domínios islâmicos. Este trabalho fornece tanto fundamentos teóricos quanto insights práticos para melhorar a avaliação de modelos de linguagem para o árabe, enfatizando a importância da competência cultural aliada às capacidades técnicas.
English
This paper addresses critical gaps in Arabic language model evaluation by establishing comprehensive theoretical guidelines and introducing a novel evaluation framework. We first analyze existing Arabic evaluation datasets, identifying significant issues in linguistic accuracy, cultural alignment, and methodological rigor. To address these limitations in LLMs, we present the Arabic Depth Mini Dataset (ADMD), a carefully curated collection of 490 challenging questions spanning ten major domains (42 sub-domains, see Figure 1. Using ADMD, we evaluate five leading language models: GPT-4, Claude 3.5 Sonnet, Gemini Flash 1.5, CommandR 100B, and Qwen-Max. Our results reveal significant variations in model performance across different domains, with particular challenges in areas requiring deep cultural understanding and specialized knowledge. Claude 3.5 Sonnet demonstrated the highest overall accuracy at 30\%, showing relative strength in mathematical theory in Arabic, Arabic language, and islamic domains. This work provides both theoretical foundations and practical insights for improving Arabic language model evaluation, emphasizing the importance of cultural competence alongside technical capabilities.
PDF43June 3, 2025