ChatPaper.aiChatPaper

BenchMAX: Um Conjunto Abrangente de Avaliação Multilíngue para Modelos de Linguagem de Grande Escala

BenchMAX: A Comprehensive Multilingual Evaluation Suite for Large Language Models

February 11, 2025
Autores: Xu Huang, Wenhao Zhu, Hanxu Hu, Conghui He, Lei Li, Shujian Huang, Fei Yuan
cs.AI

Resumo

Os benchmarks multilingues anteriores concentram-se principalmente em tarefas de compreensão simples, mas, para os grandes modelos de linguagem (LLMs), enfatizamos a proficiência em seguir instruções, raciocínio, compreensão de contextos longos, geração de código, entre outros. No entanto, a medição dessas capacidades avançadas em diferentes idiomas ainda é pouco explorada. Para abordar essa disparidade, introduzimos o BenchMAX, um benchmark de avaliação multilíngue multidirecional que permite comparações justas dessas habilidades importantes entre idiomas. Para garantir alta qualidade, três anotadores nativos distintos anotam independentemente cada amostra em todas as tarefas após a tradução automática dos dados do inglês para 16 outros idiomas. Além disso, apresentamos um novo desafio de tradução decorrente da construção do conjunto de dados. Experimentos extensivos no BenchMAX revelam variações na eficácia das capacidades centrais entre idiomas, destacando lacunas de desempenho que não podem ser superadas simplesmente aumentando o tamanho do modelo. O BenchMAX serve como uma plataforma abrangente de avaliação multilíngue, oferecendo um ambiente promissor para promover o desenvolvimento de modelos de linguagem multilingues. O conjunto de dados e o código estão publicamente acessíveis.
English
Previous multilingual benchmarks focus primarily on simple understanding tasks, but for large language models(LLMs), we emphasize proficiency in instruction following, reasoning, long context understanding, code generation, and so on. However, measuring these advanced capabilities across languages is underexplored. To address the disparity, we introduce BenchMAX, a multi-way multilingual evaluation benchmark that allows for fair comparisons of these important abilities across languages. To maintain high quality, three distinct native-speaking annotators independently annotate each sample within all tasks after the data was machine-translated from English into 16 other languages. Additionally, we present a novel translation challenge stemming from dataset construction. Extensive experiments on BenchMAX reveal varying effectiveness of core capabilities across languages, highlighting performance gaps that cannot be bridged by simply scaling up model size. BenchMAX serves as a comprehensive multilingual evaluation platform, providing a promising test bed to promote the development of multilingual language models. The dataset and code are publicly accessible.

Summary

AI-Generated Summary

PDF542February 13, 2025