Verbesserung von Texteinbettungen mit großen Sprachmodellen
Improving Text Embeddings with Large Language Models
December 31, 2023
Autoren: Liang Wang, Nan Yang, Xiaolong Huang, Linjun Yang, Rangan Majumder, Furu Wei
cs.AI
Zusammenfassung
In diesem Artikel stellen wir eine neuartige und einfache Methode vor, um hochwertige Text-Embeddings zu erhalten, indem ausschließlich synthetische Daten und weniger als 1.000 Trainingsschritte verwendet werden. Im Gegensatz zu bestehenden Methoden, die oft auf mehrstufiges Vor-Training mit Milliarden von schwach überwachten Textpaaren angewiesen sind, gefolgt von Feinabstimmung mit einigen gelabelten Datensätzen, erfordert unsere Methode weder den Aufbau komplexer Trainingspipeline noch die Abhängigkeit von manuell gesammelten Datensätzen, die häufig durch Aufgabenvielfalt und Sprachabdeckung eingeschränkt sind. Wir nutzen proprietäre LLMs, um diverse synthetische Daten für Hunderttausende von Text-Embedding-Aufgaben in fast 100 Sprachen zu generieren. Anschließend feinabstimmen wir Open-Source-Decoder-LLMs auf den synthetischen Daten unter Verwendung eines standardmäßigen Kontrastverlusts. Experimente zeigen, dass unsere Methode auf hoch kompetitiven Text-Embedding-Benchmarks starke Leistungen erzielt, ohne dabei gelabelte Daten zu verwenden. Darüber hinaus setzt unser Modell, wenn es mit einer Mischung aus synthetischen und gelabelten Daten feinabgestimmt wird, neue State-of-the-Art-Ergebnisse auf den BEIR- und MTEB-Benchmarks.
English
In this paper, we introduce a novel and simple method for obtaining
high-quality text embeddings using only synthetic data and less than 1k
training steps. Unlike existing methods that often depend on multi-stage
intermediate pre-training with billions of weakly-supervised text pairs,
followed by fine-tuning with a few labeled datasets, our method does not
require building complex training pipelines or relying on manually collected
datasets that are often constrained by task diversity and language coverage. We
leverage proprietary LLMs to generate diverse synthetic data for hundreds of
thousands of text embedding tasks across nearly 100 languages. We then
fine-tune open-source decoder-only LLMs on the synthetic data using standard
contrastive loss. Experiments demonstrate that our method achieves strong
performance on highly competitive text embedding benchmarks without using any
labeled data. Furthermore, when fine-tuned with a mixture of synthetic and
labeled data, our model sets new state-of-the-art results on the BEIR and MTEB
benchmarks.