ChatPaper.aiChatPaper

Les récupérateurs denses peuvent échouer sur des requêtes simples : révéler le dilemme de granularité des embeddings

Dense Retrievers Can Fail on Simple Queries: Revealing The Granularity Dilemma of Embeddings

June 10, 2025
Auteurs: Liyan Xu, Zhenlin Su, Mo Yu, Jiangnan Li, Fandong Meng, Jie Zhou
cs.AI

Résumé

Ce travail se concentre sur une limitation observée des encodeurs de texte : les embeddings peuvent ne pas être capables de reconnaître des entités ou des événements à granularité fine au sein de la sémantique, entraînant un échec de la recherche dense même dans des cas simples. Pour examiner ces comportements, nous introduisons d'abord un nouveau jeu de données d'évaluation en chinois, nommé CapRetrieval, dont les passages sont des légendes d'images et les requêtes sont des phrases interrogeant des entités ou des événements sous diverses formes. L'évaluation en zero-shot suggère que les encodeurs peuvent échouer sur ces correspondances à granularité fine, indépendamment des sources d'entraînement ou de la taille des modèles. Visant une amélioration, nous procédons ensuite à l'affinement des encodeurs avec nos stratégies proposées de génération de données, ce qui permet d'obtenir les meilleures performances sur CapRetrieval. Au cours de ce processus, nous identifions en outre un problème de dilemme de granularité, un défi pour les embeddings à exprimer une saillance fine tout en s'alignant sur la sémantique globale. Notre jeu de données, code et modèles dans ce travail sont publiquement disponibles à l'adresse https://github.com/lxucs/CapRetrieval.
English
This work focuses on an observed limitation of text encoders: embeddings may not be able to recognize fine-grained entities or events within the semantics, resulting in failed dense retrieval on even simple cases. To examine such behaviors, we first introduce a new evaluation dataset in Chinese, named CapRetrieval, whose passages are image captions, and queries are phrases inquiring entities or events in various forms. Zero-shot evaluation suggests that encoders may fail on these fine-grained matching, regardless of training sources or model sizes. Aiming for enhancement, we proceed to finetune encoders with our proposed data generation strategies, which obtains the best performance on CapRetrieval. Within this process, we further identify an issue of granularity dilemma, a challenge for embeddings to express fine-grained salience while aligning with overall semantics. Our dataset, code and models in this work are publicly released at https://github.com/lxucs/CapRetrieval.
PDF52June 16, 2025