ChatPaper.aiChatPaper

Gemini Embedding : Des représentations vectorielles généralisables issues de Gemini

Gemini Embedding: Generalizable Embeddings from Gemini

March 10, 2025
Auteurs: Jinhyuk Lee, Feiyang Chen, Sahil Dua, Daniel Cer, Madhuri Shanbhogue, Iftekhar Naim, Gustavo Hernández Ábrego, Zhe Li, Kaifeng Chen, Henrique Schechter Vera, Xiaoqi Ren, Shanfeng Zhang, Daniel Salz, Michael Boratko, Jay Han, Blair Chen, Shuo Huang, Vikram Rao, Paul Suganthan, Feng Han, Andreas Doumanoglou, Nithi Gupta, Fedor Moiseev, Cathy Yip, Aashi Jain, Simon Baumgartner, Shahrokh Shahi, Frank Palma Gomez, Sandeep Mariserla, Min Choi, Parashar Shah, Sonam Goenka, Ke Chen, Ye Xia, Koert Chen, Sai Meher Karthik Duddu, Yichang Chen, Trevor Walker, Wenlei Zhou, Rakesh Ghiya, Zach Gleicher, Karan Gill, Zhe Dong, Mojtaba Seyedhosseini, Yunhsuan Sung, Raphael Hoffmann, Tom Duerig
cs.AI

Résumé

Dans ce rapport, nous présentons Gemini Embedding, un modèle d'embedding de pointe qui exploite la puissance de Gemini, le modèle de langage le plus performant de Google. Tirant parti des capacités intrinsèques de Gemini en matière de compréhension multilingue et de code, Gemini Embedding produit des embeddings hautement généralisables pour des textes couvrant de nombreuses langues et modalités textuelles. Les représentations générées par Gemini Embedding peuvent être précalculées et appliquées à une variété de tâches en aval, notamment la classification, la similarité, le clustering, le classement et la recherche. Évalué sur le Massive Multilingual Text Embedding Benchmark (MMTEB), qui inclut plus d'une centaine de tâches réparties sur 250+ langues, Gemini Embedding surpasse largement les modèles de pointe précédents, démontrant des améliorations considérables en termes de qualité des embeddings. Atteignant des performances de pointe sur les benchmarks multilingues, anglais et de code du MMTEB, notre modèle unifié montre de solides capacités sur un large éventail de tâches et dépasse les modèles spécialisés spécifiques à un domaine.
English
In this report, we introduce Gemini Embedding, a state-of-the-art embedding model leveraging the power of Gemini, Google's most capable large language model. Capitalizing on Gemini's inherent multilingual and code understanding capabilities, Gemini Embedding produces highly generalizable embeddings for text spanning numerous languages and textual modalities. The representations generated by Gemini Embedding can be precomputed and applied to a variety of downstream tasks including classification, similarity, clustering, ranking, and retrieval. Evaluated on the Massive Multilingual Text Embedding Benchmark (MMTEB), which includes over one hundred tasks across 250+ languages, Gemini Embedding substantially outperforms prior state-of-the-art models, demonstrating considerable improvements in embedding quality. Achieving state-of-the-art performance across MMTEB's multilingual, English, and code benchmarks, our unified model demonstrates strong capabilities across a broad selection of tasks and surpasses specialized domain-specific models.

Summary

AI-Generated Summary

PDF383March 12, 2025