Gemini Embedding : Des représentations vectorielles généralisables issues de Gemini
Gemini Embedding: Generalizable Embeddings from Gemini
March 10, 2025
Auteurs: Jinhyuk Lee, Feiyang Chen, Sahil Dua, Daniel Cer, Madhuri Shanbhogue, Iftekhar Naim, Gustavo Hernández Ábrego, Zhe Li, Kaifeng Chen, Henrique Schechter Vera, Xiaoqi Ren, Shanfeng Zhang, Daniel Salz, Michael Boratko, Jay Han, Blair Chen, Shuo Huang, Vikram Rao, Paul Suganthan, Feng Han, Andreas Doumanoglou, Nithi Gupta, Fedor Moiseev, Cathy Yip, Aashi Jain, Simon Baumgartner, Shahrokh Shahi, Frank Palma Gomez, Sandeep Mariserla, Min Choi, Parashar Shah, Sonam Goenka, Ke Chen, Ye Xia, Koert Chen, Sai Meher Karthik Duddu, Yichang Chen, Trevor Walker, Wenlei Zhou, Rakesh Ghiya, Zach Gleicher, Karan Gill, Zhe Dong, Mojtaba Seyedhosseini, Yunhsuan Sung, Raphael Hoffmann, Tom Duerig
cs.AI
Résumé
Dans ce rapport, nous présentons Gemini Embedding, un modèle d'embedding de pointe qui exploite la puissance de Gemini, le modèle de langage le plus performant de Google. Tirant parti des capacités intrinsèques de Gemini en matière de compréhension multilingue et de code, Gemini Embedding produit des embeddings hautement généralisables pour des textes couvrant de nombreuses langues et modalités textuelles. Les représentations générées par Gemini Embedding peuvent être précalculées et appliquées à une variété de tâches en aval, notamment la classification, la similarité, le clustering, le classement et la recherche. Évalué sur le Massive Multilingual Text Embedding Benchmark (MMTEB), qui inclut plus d'une centaine de tâches réparties sur 250+ langues, Gemini Embedding surpasse largement les modèles de pointe précédents, démontrant des améliorations considérables en termes de qualité des embeddings. Atteignant des performances de pointe sur les benchmarks multilingues, anglais et de code du MMTEB, notre modèle unifié montre de solides capacités sur un large éventail de tâches et dépasse les modèles spécialisés spécifiques à un domaine.
English
In this report, we introduce Gemini Embedding, a state-of-the-art embedding
model leveraging the power of Gemini, Google's most capable large language
model. Capitalizing on Gemini's inherent multilingual and code understanding
capabilities, Gemini Embedding produces highly generalizable embeddings for
text spanning numerous languages and textual modalities. The representations
generated by Gemini Embedding can be precomputed and applied to a variety of
downstream tasks including classification, similarity, clustering, ranking, and
retrieval. Evaluated on the Massive Multilingual Text Embedding Benchmark
(MMTEB), which includes over one hundred tasks across 250+ languages, Gemini
Embedding substantially outperforms prior state-of-the-art models,
demonstrating considerable improvements in embedding quality. Achieving
state-of-the-art performance across MMTEB's multilingual, English, and code
benchmarks, our unified model demonstrates strong capabilities across a broad
selection of tasks and surpasses specialized domain-specific models.Summary
AI-Generated Summary