ChatPaper.aiChatPaper

Gemini Embedding: Универсальные эмбеддинги от Gemini

Gemini Embedding: Generalizable Embeddings from Gemini

March 10, 2025
Авторы: Jinhyuk Lee, Feiyang Chen, Sahil Dua, Daniel Cer, Madhuri Shanbhogue, Iftekhar Naim, Gustavo Hernández Ábrego, Zhe Li, Kaifeng Chen, Henrique Schechter Vera, Xiaoqi Ren, Shanfeng Zhang, Daniel Salz, Michael Boratko, Jay Han, Blair Chen, Shuo Huang, Vikram Rao, Paul Suganthan, Feng Han, Andreas Doumanoglou, Nithi Gupta, Fedor Moiseev, Cathy Yip, Aashi Jain, Simon Baumgartner, Shahrokh Shahi, Frank Palma Gomez, Sandeep Mariserla, Min Choi, Parashar Shah, Sonam Goenka, Ke Chen, Ye Xia, Koert Chen, Sai Meher Karthik Duddu, Yichang Chen, Trevor Walker, Wenlei Zhou, Rakesh Ghiya, Zach Gleicher, Karan Gill, Zhe Dong, Mojtaba Seyedhosseini, Yunhsuan Sung, Raphael Hoffmann, Tom Duerig
cs.AI

Аннотация

В данном отчете мы представляем Gemini Embedding — передовую модель для создания эмбеддингов, использующую возможности Gemini, самой мощной крупной языковой модели Google. Благодаря встроенным в Gemini способностям к пониманию многоязычных текстов и кода, Gemini Embedding создает высоко обобщаемые эмбеддинги для текстов на множестве языков и в различных текстовых модальностях. Представления, генерируемые Gemini Embedding, могут быть предварительно вычислены и применены для решения разнообразных задач, включая классификацию, определение сходства, кластеризацию, ранжирование и поиск. Оцененная на Massive Multilingual Text Embedding Benchmark (MMTEB), который включает более ста задач на 250+ языках, Gemini Embedding значительно превосходит предыдущие передовые модели, демонстрируя существенное улучшение качества эмбеддингов. Достигая наилучших результатов на мультиязычных, англоязычных и кодовых бенчмарках MMTEB, наша унифицированная модель демонстрирует высокие возможности в широком спектре задач и превосходит специализированные модели, ориентированные на конкретные области.
English
In this report, we introduce Gemini Embedding, a state-of-the-art embedding model leveraging the power of Gemini, Google's most capable large language model. Capitalizing on Gemini's inherent multilingual and code understanding capabilities, Gemini Embedding produces highly generalizable embeddings for text spanning numerous languages and textual modalities. The representations generated by Gemini Embedding can be precomputed and applied to a variety of downstream tasks including classification, similarity, clustering, ranking, and retrieval. Evaluated on the Massive Multilingual Text Embedding Benchmark (MMTEB), which includes over one hundred tasks across 250+ languages, Gemini Embedding substantially outperforms prior state-of-the-art models, demonstrating considerable improvements in embedding quality. Achieving state-of-the-art performance across MMTEB's multilingual, English, and code benchmarks, our unified model demonstrates strong capabilities across a broad selection of tasks and surpasses specialized domain-specific models.

Summary

AI-Generated Summary

PDF383March 12, 2025