ChatPaper.aiChatPaper

Afinamiento Instruccional de Representación Generativa

Generative Representational Instruction Tuning

February 15, 2024
Autores: Niklas Muennighoff, Hongjin Su, Liang Wang, Nan Yang, Furu Wei, Tao Yu, Amanpreet Singh, Douwe Kiela
cs.AI

Resumen

Todos los problemas lingüísticos basados en texto pueden reducirse a generación o incrustación (embedding). Los modelos actuales solo funcionan bien en una u otra tarea. Introducimos el ajuste instruccional de representación generativa (Generative Representational Instruction Tuning, GRIT), mediante el cual un modelo de lenguaje grande es entrenado para manejar tanto tareas generativas como de incrustación, distinguiéndolas a través de instrucciones. En comparación con otros modelos abiertos, nuestro modelo resultante, GritLM 7B, establece un nuevo estado del arte en el Massive Text Embedding Benchmark (MTEB) y supera a todos los modelos de su tamaño en una variedad de tareas generativas. Al escalar aún más, GritLM 8x7B supera a todos los modelos generativos de lenguaje abiertos que probamos, mientras sigue estando entre los mejores modelos de incrustación. Notablemente, encontramos que GRIT iguala el entrenamiento solo con datos generativos o de incrustación, por lo que podemos unificar ambos sin pérdida de rendimiento. Entre otros beneficios, la unificación a través de GRIT acelera la Generación Aumentada por Recuperación (Retrieval-Augmented Generation, RAG) en más del 60% para documentos largos, al ya no requerir modelos separados de recuperación y generación. Los modelos, código, etc., están disponibles gratuitamente en https://github.com/ContextualAI/gritlm.
English
All text-based language problems can be reduced to either generation or embedding. Current models only perform well at one or the other. We introduce generative representational instruction tuning (GRIT) whereby a large language model is trained to handle both generative and embedding tasks by distinguishing between them through instructions. Compared to other open models, our resulting GritLM 7B sets a new state of the art on the Massive Text Embedding Benchmark (MTEB) and outperforms all models up to its size on a range of generative tasks. By scaling up further, GritLM 8x7B outperforms all open generative language models that we tried while still being among the best embedding models. Notably, we find that GRIT matches training on only generative or embedding data, thus we can unify both at no performance loss. Among other benefits, the unification via GRIT speeds up Retrieval-Augmented Generation (RAG) by > 60% for long documents, by no longer requiring separate retrieval and generation models. Models, code, etc. are freely available at https://github.com/ContextualAI/gritlm.

Summary

AI-Generated Summary

PDF555December 15, 2024