ChatPaper.aiChatPaper

MMTEB: Punto de Referencia Masivo para Incrustaciones de Texto Multilingüe

MMTEB: Massive Multilingual Text Embedding Benchmark

February 19, 2025
Autores: Kenneth Enevoldsen, Isaac Chung, Imene Kerboua, Márton Kardos, Ashwin Mathur, David Stap, Jay Gala, Wissam Siblini, Dominik Krzemiński, Genta Indra Winata, Saba Sturua, Saiteja Utpala, Mathieu Ciancone, Marion Schaeffer, Gabriel Sequeira, Diganta Misra, Shreeya Dhakal, Jonathan Rystrøm, Roman Solomatin, Ömer Çağatan, Akash Kundu, Martin Bernstorff, Shitao Xiao, Akshita Sukhlecha, Bhavish Pahwa, Rafał Poświata, Kranthi Kiran GV, Shawon Ashraf, Daniel Auras, Björn Plüster, Jan Philipp Harries, Loïc Magne, Isabelle Mohr, Mariya Hendriksen, Dawei Zhu, Hippolyte Gisserot-Boukhlef, Tom Aarsen, Jan Kostkan, Konrad Wojtasik, Taemin Lee, Marek Šuppa, Crystina Zhang, Roberta Rocca, Mohammed Hamdy, Andrianos Michail, John Yang, Manuel Faysse, Aleksei Vatolin, Nandan Thakur, Manan Dey, Dipam Vasani, Pranjal Chitale, Simone Tedeschi, Nguyen Tai, Artem Snegirev, Michael Günther, Mengzhou Xia, Weijia Shi, Xing Han Lù, Jordan Clive, Gayatri Krishnakumar, Anna Maksimova, Silvan Wehrli, Maria Tikhonova, Henil Panchal, Aleksandr Abramov, Malte Ostendorff, Zheng Liu, Simon Clematide, Lester James Miranda, Alena Fenogenova, Guangyu Song, Ruqiya Bin Safi, Wen-Ding Li, Alessia Borghini, Federico Cassano, Hongjin Su, Jimmy Lin, Howard Yen, Lasse Hansen, Sara Hooker, Chenghao Xiao, Vaibhav Adlakha, Orion Weller, Siva Reddy, Niklas Muennighoff
cs.AI

Resumen

Los embeddings de texto suelen evaluarse en un conjunto limitado de tareas, las cuales están restringidas por la diversidad de idiomas, dominios y tipos de tareas. Para abordar estas limitaciones y ofrecer una evaluación más integral, presentamos el Massive Multilingual Text Embedding Benchmark (MMTEB), una expansión a gran escala y dirigida por la comunidad de MTEB, que abarca más de 500 tareas de evaluación controladas en calidad en más de 250 idiomas. MMTEB incluye un conjunto diverso de tareas desafiantes y novedosas, como la ejecución de instrucciones, la recuperación de documentos largos y la recuperación de código, representando la colección multilingüe más grande de tareas de evaluación para modelos de embeddings hasta la fecha. Utilizando esta colección, desarrollamos varios puntos de referencia altamente multilingües, que empleamos para evaluar un conjunto representativo de modelos. Descubrimos que, aunque los modelos de lenguaje grandes (LLMs) con miles de millones de parámetros pueden alcanzar un rendimiento de vanguardia en ciertos subconjuntos de idiomas y categorías de tareas, el modelo disponible públicamente con mejor rendimiento es multilingual-e5-large-instruct, con solo 560 millones de parámetros. Para facilitar la accesibilidad y reducir el costo computacional, introducimos un novedoso método de submuestreo basado en la correlación entre tareas, asegurando una selección diversa mientras se preservan los rankings relativos de los modelos. Además, optimizamos tareas como la recuperación mediante el muestreo de negativos difíciles, creando divisiones más pequeñas pero efectivas. Estas optimizaciones nos permiten introducir puntos de referencia que reducen drásticamente las demandas computacionales. Por ejemplo, nuestro nuevo punto de referencia de inglés zero-shot mantiene un orden de clasificación similar a la versión a gran escala, pero con una fracción del costo computacional.
English
Text embeddings are typically evaluated on a limited set of tasks, which are constrained by language, domain, and task diversity. To address these limitations and provide a more comprehensive evaluation, we introduce the Massive Multilingual Text Embedding Benchmark (MMTEB) - a large-scale, community-driven expansion of MTEB, covering over 500 quality-controlled evaluation tasks across 250+ languages. MMTEB includes a diverse set of challenging, novel tasks such as instruction following, long-document retrieval, and code retrieval, representing the largest multilingual collection of evaluation tasks for embedding models to date. Using this collection, we develop several highly multilingual benchmarks, which we use to evaluate a representative set of models. We find that while large language models (LLMs) with billions of parameters can achieve state-of-the-art performance on certain language subsets and task categories, the best-performing publicly available model is multilingual-e5-large-instruct with only 560 million parameters. To facilitate accessibility and reduce computational cost, we introduce a novel downsampling method based on inter-task correlation, ensuring a diverse selection while preserving relative model rankings. Furthermore, we optimize tasks such as retrieval by sampling hard negatives, creating smaller but effective splits. These optimizations allow us to introduce benchmarks that drastically reduce computational demands. For instance, our newly introduced zero-shot English benchmark maintains a ranking order similar to the full-scale version but at a fraction of the computational cost.

Summary

AI-Generated Summary

PDF343February 20, 2025