ChatPaper.aiChatPaper

Miglioramento delle rappresentazioni testuali con modelli linguistici di grandi dimensioni

Improving Text Embeddings with Large Language Models

December 31, 2023
Autori: Liang Wang, Nan Yang, Xiaolong Huang, Linjun Yang, Rangan Majumder, Furu Wei
cs.AI

Abstract

In questo articolo, presentiamo un metodo nuovo e semplice per ottenere embedding di testo di alta qualità utilizzando solo dati sintetici e meno di 1.000 passi di addestramento. A differenza dei metodi esistenti, che spesso dipendono da una pre-addestramento intermedio multi-stadio con miliardi di coppie di testo debolmente supervisionate, seguito da un fine-tuning con pochi dataset etichettati, il nostro metodo non richiede la costruzione di pipeline di addestramento complesse né il ricorso a dataset raccolti manualmente, che sono spesso limitati nella diversità dei task e nella copertura linguistica. Sfruttiamo modelli linguistici proprietari (LLM) per generare dati sintetici diversificati per centinaia di migliaia di task di embedding di testo in quasi 100 lingue. Successivamente, eseguiamo il fine-tuning di LLM open-source di tipo decoder-only sui dati sintetici utilizzando una funzione di perdita contrastiva standard. Gli esperimenti dimostrano che il nostro metodo raggiunge prestazioni solide su benchmark di embedding di testo altamente competitivi senza utilizzare alcun dato etichettato. Inoltre, quando sottoposto a fine-tuning con una miscela di dati sintetici ed etichettati, il nostro modello stabilisce nuovi risultati state-of-the-art sui benchmark BEIR e MTEB.
English
In this paper, we introduce a novel and simple method for obtaining high-quality text embeddings using only synthetic data and less than 1k training steps. Unlike existing methods that often depend on multi-stage intermediate pre-training with billions of weakly-supervised text pairs, followed by fine-tuning with a few labeled datasets, our method does not require building complex training pipelines or relying on manually collected datasets that are often constrained by task diversity and language coverage. We leverage proprietary LLMs to generate diverse synthetic data for hundreds of thousands of text embedding tasks across nearly 100 languages. We then fine-tune open-source decoder-only LLMs on the synthetic data using standard contrastive loss. Experiments demonstrate that our method achieves strong performance on highly competitive text embedding benchmarks without using any labeled data. Furthermore, when fine-tuned with a mixture of synthetic and labeled data, our model sets new state-of-the-art results on the BEIR and MTEB benchmarks.
PDF8215December 15, 2024