Улучшение текстовых эмбеддингов с использованием больших языковых моделей
Improving Text Embeddings with Large Language Models
December 31, 2023
Авторы: Liang Wang, Nan Yang, Xiaolong Huang, Linjun Yang, Rangan Majumder, Furu Wei
cs.AI
Аннотация
В данной статье мы представляем новый и простой метод получения высококачественных текстовых эмбеддингов, использующий только синтетические данные и менее 1000 шагов обучения. В отличие от существующих подходов, которые часто зависят от многоэтапного промежуточного предобучения на миллиардах слабо аннотированных текстовых пар с последующим тонким настраиванием на нескольких размеченных наборах данных, наш метод не требует создания сложных обучающих конвейеров или использования вручную собранных данных, которые часто ограничены разнообразием задач и охватом языков. Мы используем проприетарные большие языковые модели (LLM) для генерации разнообразных синтетических данных для сотен тысяч задач текстового эмбеддинга на почти 100 языках. Затем мы тонко настраиваем открытые декодер-ориентированные LLM на синтетических данных, используя стандартную контрастную функцию потерь. Эксперименты показывают, что наш метод демонстрирует высокую производительность на конкурентных бенчмарках текстовых эмбеддингов без использования каких-либо размеченных данных. Более того, при тонкой настройке на смеси синтетических и размеченных данных наша модель устанавливает новые рекорды на бенчмарках BEIR и MTEB.
English
In this paper, we introduce a novel and simple method for obtaining
high-quality text embeddings using only synthetic data and less than 1k
training steps. Unlike existing methods that often depend on multi-stage
intermediate pre-training with billions of weakly-supervised text pairs,
followed by fine-tuning with a few labeled datasets, our method does not
require building complex training pipelines or relying on manually collected
datasets that are often constrained by task diversity and language coverage. We
leverage proprietary LLMs to generate diverse synthetic data for hundreds of
thousands of text embedding tasks across nearly 100 languages. We then
fine-tune open-source decoder-only LLMs on the synthetic data using standard
contrastive loss. Experiments demonstrate that our method achieves strong
performance on highly competitive text embedding benchmarks without using any
labeled data. Furthermore, when fine-tuned with a mixture of synthetic and
labeled data, our model sets new state-of-the-art results on the BEIR and MTEB
benchmarks.