ChatPaper.aiChatPaper

HUME: Het meten van de prestatiekloof tussen mens en model in tekstembeddingstaken

HUME: Measuring the Human-Model Performance Gap in Text Embedding Task

October 11, 2025
Auteurs: Adnan El Assadi, Isaac Chung, Roman Solomatin, Niklas Muennighoff, Kenneth Enevoldsen
cs.AI

Samenvatting

Het vergelijken van menselijke en modelprestaties biedt een waardevol perspectief voor het begrijpen van de sterke punten en beperkingen van embeddingmodellen, en benadrukt waar ze slagen en waar ze falen in het vastleggen van betekenis en nuance. Dergelijke vergelijkingen worden echter zelden gemaakt, omdat menselijke prestaties op embeddingtaken moeilijk te meten zijn. Om deze leemte op te vullen, introduceren we HUME: Human Evaluation Framework for Text Embeddings. Terwijl frameworks zoals MTEB brede model evaluatie bieden, ontbreekt het hen aan betrouwbare schattingen van menselijke prestaties, wat de interpreteerbaarheid van modelscores beperkt. We meten menselijke prestaties op 16 MTEB-datasets die reranking, classificatie, clustering en semantische tekstuele gelijkenis omvatten, over taalkundig diverse hoog- en laag-resource talen. Mensen behalen een gemiddelde prestatie van 77,6% vergeleken met 80,1% voor het beste embeddingmodel, hoewel de variatie aanzienlijk is: modellen bereiken bijna maximale prestaties op sommige datasets terwijl ze op andere moeite hebben, wat wijst op datasetproblemen en tekortkomingen in laag-resource talen aan het licht brengt. We bieden menselijke prestatie-baselines, inzicht in patronen van taakmoeilijkheid en een uitbreidbaar evaluatieframework dat een betekenisvollere interpretatie van het model mogelijk maakt en de ontwikkeling van zowel modellen als benchmarks informeert. Onze code, dataset en leaderboard zijn publiekelijk beschikbaar op https://github.com/embeddings-benchmark/mteb.
English
Comparing human and model performance offers a valuable perspective for understanding the strengths and limitations of embedding models, highlighting where they succeed and where they fail to capture meaning and nuance. However, such comparisons are rarely made, as human performance on embedding tasks is difficult to measure. To fill this gap, we introduce HUME: Human Evaluation Framework for Text Embeddings. While frameworks like MTEB provide broad model evaluation, they lack reliable estimates of human performance, limiting the interpretability of model scores. We measure human performance across 16 MTEB datasets spanning reranking, classification, clustering, and semantic textual similarity across linguistically diverse high- and low-resource languages. Humans achieve an average performance of 77.6% compared to 80.1% for the best embedding model, although variation is substantial: models reach near-ceiling performance on some datasets while struggling on others, suggesting dataset issues and revealing shortcomings in low-resource languages. We provide human performance baselines, insight into task difficulty patterns, and an extensible evaluation framework that enables a more meaningful interpretation of the model and informs the development of both models and benchmarks. Our code, dataset, and leaderboard are publicly available at https://github.com/embeddings-benchmark/mteb.
PDF82October 14, 2025