Het verbeteren van tekstembeddingen met grote taalmodelen
Improving Text Embeddings with Large Language Models
December 31, 2023
Auteurs: Liang Wang, Nan Yang, Xiaolong Huang, Linjun Yang, Rangan Majumder, Furu Wei
cs.AI
Samenvatting
In dit artikel introduceren we een nieuwe en eenvoudige methode voor het verkrijgen van hoogwaardige tekstembeddingen met alleen synthetische data en minder dan 1.000 trainingsstappen. In tegenstelling tot bestaande methoden die vaak afhankelijk zijn van meerfasige voorafgaande training met miljarden zwak begeleide tekstparen, gevolgd door fine-tuning met enkele gelabelde datasets, vereist onze methode niet het opbouwen van complexe trainingspijplijnen of het vertrouwen op handmatig verzamelde datasets die vaak beperkt zijn door taakdiversiteit en taaldekking. We maken gebruik van propriëtaire LLM's om diverse synthetische data te genereren voor honderdduizenden tekstembeddingstaken in bijna 100 talen. Vervolgens fine-tunen we open-source decoder-only LLM's op de synthetische data met behulp van standaard contrastief verlies. Experimenten tonen aan dat onze methode sterke prestaties behaalt op zeer competitieve tekstembeddingbenchmarks zonder gebruik te maken van gelabelde data. Bovendien, wanneer gefinetuned met een mix van synthetische en gelabelde data, stelt ons model nieuwe state-of-the-art resultaten op de BEIR- en MTEB-benchmarks.
English
In this paper, we introduce a novel and simple method for obtaining
high-quality text embeddings using only synthetic data and less than 1k
training steps. Unlike existing methods that often depend on multi-stage
intermediate pre-training with billions of weakly-supervised text pairs,
followed by fine-tuning with a few labeled datasets, our method does not
require building complex training pipelines or relying on manually collected
datasets that are often constrained by task diversity and language coverage. We
leverage proprietary LLMs to generate diverse synthetic data for hundreds of
thousands of text embedding tasks across nearly 100 languages. We then
fine-tune open-source decoder-only LLMs on the synthetic data using standard
contrastive loss. Experiments demonstrate that our method achieves strong
performance on highly competitive text embedding benchmarks without using any
labeled data. Furthermore, when fine-tuned with a mixture of synthetic and
labeled data, our model sets new state-of-the-art results on the BEIR and MTEB
benchmarks.