ChatPaper.aiChatPaper

Mejora de Incrustaciones de Texto con Modelos de Lenguaje a Gran Escala

Improving Text Embeddings with Large Language Models

December 31, 2023
Autores: Liang Wang, Nan Yang, Xiaolong Huang, Linjun Yang, Rangan Majumder, Furu Wei
cs.AI

Resumen

En este artículo, presentamos un método novedoso y sencillo para obtener embeddings de texto de alta calidad utilizando únicamente datos sintéticos y menos de 1,000 pasos de entrenamiento. A diferencia de los métodos existentes que suelen depender de un preentrenamiento intermedio en múltiples etapas con miles de millones de pares de texto débilmente supervisados, seguido de un ajuste fino con algunos conjuntos de datos etiquetados, nuestro método no requiere la construcción de complejas tuberías de entrenamiento ni depende de conjuntos de datos recopilados manualmente que a menudo están limitados por la diversidad de tareas y la cobertura lingüística. Aprovechamos modelos de lenguaje grandes (LLMs) propietarios para generar datos sintéticos diversos para cientos de miles de tareas de embedding de texto en casi 100 idiomas. Luego, ajustamos modelos LLMs de solo decodificación de código abierto en los datos sintéticos utilizando una función de pérdida contrastiva estándar. Los experimentos demuestran que nuestro método logra un rendimiento sólido en puntos de referencia altamente competitivos para embeddings de texto sin utilizar ningún dato etiquetado. Además, cuando se ajusta con una mezcla de datos sintéticos y etiquetados, nuestro modelo establece nuevos resultados de vanguardia en los benchmarks BEIR y MTEB.
English
In this paper, we introduce a novel and simple method for obtaining high-quality text embeddings using only synthetic data and less than 1k training steps. Unlike existing methods that often depend on multi-stage intermediate pre-training with billions of weakly-supervised text pairs, followed by fine-tuning with a few labeled datasets, our method does not require building complex training pipelines or relying on manually collected datasets that are often constrained by task diversity and language coverage. We leverage proprietary LLMs to generate diverse synthetic data for hundreds of thousands of text embedding tasks across nearly 100 languages. We then fine-tune open-source decoder-only LLMs on the synthetic data using standard contrastive loss. Experiments demonstrate that our method achieves strong performance on highly competitive text embedding benchmarks without using any labeled data. Furthermore, when fine-tuned with a mixture of synthetic and labeled data, our model sets new state-of-the-art results on the BEIR and MTEB benchmarks.
PDF8115December 15, 2024