ChatPaper.aiChatPaper

HUME : Mesurer l'écart de performance entre l'humain et le modèle dans la tâche d'incorporation de texte

HUME: Measuring the Human-Model Performance Gap in Text Embedding Task

October 11, 2025
papers.authors: Adnan El Assadi, Isaac Chung, Roman Solomatin, Niklas Muennighoff, Kenneth Enevoldsen
cs.AI

papers.abstract

La comparaison entre les performances humaines et celles des modèles offre une perspective précieuse pour comprendre les forces et les limites des modèles d'embedding, mettant en lumière leurs succès et leurs échecs à capturer le sens et les nuances. Cependant, de telles comparaisons sont rarement effectuées, car la performance humaine sur les tâches d'embedding est difficile à mesurer. Pour combler cette lacune, nous introduisons HUME : un cadre d'évaluation humaine pour les embeddings de texte. Bien que des cadres comme MTEB fournissent une évaluation large des modèles, ils manquent d'estimations fiables de la performance humaine, limitant ainsi l'interprétabilité des scores des modèles. Nous mesurons la performance humaine sur 16 ensembles de données MTEB couvrant des tâches de reranking, de classification, de clustering et de similarité sémantique textuelle, dans des langues à ressources linguistiques élevées et faibles. Les humains atteignent une performance moyenne de 77,6 % contre 80,1 % pour le meilleur modèle d'embedding, bien que la variation soit importante : les modèles atteignent des performances quasi maximales sur certains ensembles de données tout en peinant sur d'autres, suggérant des problèmes liés aux données et révélant des lacunes dans les langues à faibles ressources. Nous fournissons des références de performance humaine, des insights sur les schémas de difficulté des tâches, et un cadre d'évaluation extensible qui permet une interprétation plus significative des modèles et guide le développement à la fois des modèles et des benchmarks. Notre code, nos ensembles de données et notre classement sont disponibles publiquement à l'adresse suivante : https://github.com/embeddings-benchmark/mteb.
English
Comparing human and model performance offers a valuable perspective for understanding the strengths and limitations of embedding models, highlighting where they succeed and where they fail to capture meaning and nuance. However, such comparisons are rarely made, as human performance on embedding tasks is difficult to measure. To fill this gap, we introduce HUME: Human Evaluation Framework for Text Embeddings. While frameworks like MTEB provide broad model evaluation, they lack reliable estimates of human performance, limiting the interpretability of model scores. We measure human performance across 16 MTEB datasets spanning reranking, classification, clustering, and semantic textual similarity across linguistically diverse high- and low-resource languages. Humans achieve an average performance of 77.6% compared to 80.1% for the best embedding model, although variation is substantial: models reach near-ceiling performance on some datasets while struggling on others, suggesting dataset issues and revealing shortcomings in low-resource languages. We provide human performance baselines, insight into task difficulty patterns, and an extensible evaluation framework that enables a more meaningful interpretation of the model and informs the development of both models and benchmarks. Our code, dataset, and leaderboard are publicly available at https://github.com/embeddings-benchmark/mteb.
PDF82October 14, 2025