ChatPaper.aiChatPaper

Fundición RAG: Un marco para mejorar los LLMs para Generación con Recuperación Aumentada

RAG Foundry: A Framework for Enhancing LLMs for Retrieval Augmented Generation

August 5, 2024
Autores: Daniel Fleischer, Moshe Berchansky, Moshe Wasserblat, Peter Izsak
cs.AI

Resumen

Implementar sistemas de Generación con Recuperación (RAG) es inherentemente complejo, requiriendo un profundo entendimiento de los datos, casos de uso y decisiones de diseño intrincadas. Además, evaluar estos sistemas presenta desafíos significativos, exigiendo la evaluación tanto de la precisión de la recuperación como de la calidad generativa a través de un enfoque multifacético. Presentamos RAG Foundry, un marco de trabajo de código abierto para potenciar modelos de lenguaje grandes para casos de uso de RAG. RAG Foundry integra la creación de datos, entrenamiento, inferencia y evaluación en un flujo de trabajo único, facilitando la creación de conjuntos de datos aumentados por datos para entrenar y evaluar modelos de lenguaje grandes en entornos de RAG. Esta integración permite el prototipado rápido y la experimentación con diversas técnicas de RAG, permitiendo a los usuarios generar conjuntos de datos y entrenar modelos de RAG utilizando fuentes de conocimiento internas o especializadas. Demostramos la efectividad del marco potenciando y ajustando los modelos Llama-3 y Phi-3 con diversas configuraciones de RAG, mostrando mejoras consistentes en tres conjuntos de datos intensivos en conocimiento. El código se publica como código abierto en https://github.com/IntelLabs/RAGFoundry.
English
Implementing Retrieval-Augmented Generation (RAG) systems is inherently complex, requiring deep understanding of data, use cases, and intricate design decisions. Additionally, evaluating these systems presents significant challenges, necessitating assessment of both retrieval accuracy and generative quality through a multi-faceted approach. We introduce RAG Foundry, an open-source framework for augmenting large language models for RAG use cases. RAG Foundry integrates data creation, training, inference and evaluation into a single workflow, facilitating the creation of data-augmented datasets for training and evaluating large language models in RAG settings. This integration enables rapid prototyping and experimentation with various RAG techniques, allowing users to easily generate datasets and train RAG models using internal or specialized knowledge sources. We demonstrate the framework effectiveness by augmenting and fine-tuning Llama-3 and Phi-3 models with diverse RAG configurations, showcasing consistent improvements across three knowledge-intensive datasets. Code is released as open-source in https://github.com/IntelLabs/RAGFoundry.

Summary

AI-Generated Summary

PDF382November 28, 2024