Gemini Embedding: Incorporações Generalizáveis do Gemini
Gemini Embedding: Generalizable Embeddings from Gemini
March 10, 2025
Autores: Jinhyuk Lee, Feiyang Chen, Sahil Dua, Daniel Cer, Madhuri Shanbhogue, Iftekhar Naim, Gustavo Hernández Ábrego, Zhe Li, Kaifeng Chen, Henrique Schechter Vera, Xiaoqi Ren, Shanfeng Zhang, Daniel Salz, Michael Boratko, Jay Han, Blair Chen, Shuo Huang, Vikram Rao, Paul Suganthan, Feng Han, Andreas Doumanoglou, Nithi Gupta, Fedor Moiseev, Cathy Yip, Aashi Jain, Simon Baumgartner, Shahrokh Shahi, Frank Palma Gomez, Sandeep Mariserla, Min Choi, Parashar Shah, Sonam Goenka, Ke Chen, Ye Xia, Koert Chen, Sai Meher Karthik Duddu, Yichang Chen, Trevor Walker, Wenlei Zhou, Rakesh Ghiya, Zach Gleicher, Karan Gill, Zhe Dong, Mojtaba Seyedhosseini, Yunhsuan Sung, Raphael Hoffmann, Tom Duerig
cs.AI
Resumo
Neste relatório, apresentamos o Gemini Embedding, um modelo de embedding de última geração que aproveita o poder do Gemini, o modelo de linguagem mais avançado da Google. Aproveitando as capacidades inerentes de compreensão multilingue e de código do Gemini, o Gemini Embedding produz embeddings altamente generalizáveis para textos que abrangem inúmeros idiomas e modalidades textuais. As representações geradas pelo Gemini Embedding podem ser pré-computadas e aplicadas a uma variedade de tarefas subsequentes, incluindo classificação, similaridade, agrupamento, ordenação e recuperação. Avaliado no Massive Multilingual Text Embedding Benchmark (MMTEB), que inclui mais de cem tarefas em mais de 250 idiomas, o Gemini Embedding supera substancialmente os modelos de última geração anteriores, demonstrando melhorias consideráveis na qualidade dos embeddings. Ao alcançar desempenho de última geração nos benchmarks multilingues, em inglês e de código do MMTEB, nosso modelo unificado demonstra fortes capacidades em uma ampla seleção de tarefas e supera modelos especializados em domínios específicos.
English
In this report, we introduce Gemini Embedding, a state-of-the-art embedding
model leveraging the power of Gemini, Google's most capable large language
model. Capitalizing on Gemini's inherent multilingual and code understanding
capabilities, Gemini Embedding produces highly generalizable embeddings for
text spanning numerous languages and textual modalities. The representations
generated by Gemini Embedding can be precomputed and applied to a variety of
downstream tasks including classification, similarity, clustering, ranking, and
retrieval. Evaluated on the Massive Multilingual Text Embedding Benchmark
(MMTEB), which includes over one hundred tasks across 250+ languages, Gemini
Embedding substantially outperforms prior state-of-the-art models,
demonstrating considerable improvements in embedding quality. Achieving
state-of-the-art performance across MMTEB's multilingual, English, and code
benchmarks, our unified model demonstrates strong capabilities across a broad
selection of tasks and surpasses specialized domain-specific models.Summary
AI-Generated Summary