RAG Foundry: Un Framework per Potenziare i Modelli Linguistici di Grande Dimensione per la Generazione Aumentata dal Recupero di Informazioni
RAG Foundry: A Framework for Enhancing LLMs for Retrieval Augmented Generation
August 5, 2024
Autori: Daniel Fleischer, Moshe Berchansky, Moshe Wasserblat, Peter Izsak
cs.AI
Abstract
L'implementazione di sistemi di Retrieval-Augmented Generation (RAG) è intrinsecamente complessa, richiedendo una profonda comprensione dei dati, dei casi d'uso e di intricate decisioni progettuali. Inoltre, la valutazione di questi sistemi presenta sfide significative, necessitando di una valutazione sia dell'accuratezza del recupero che della qualità generativa attraverso un approccio multi-faccettato. Introduciamo RAG Foundry, un framework open-source per potenziare i grandi modelli linguistici nei casi d'uso RAG. RAG Foundry integra la creazione dei dati, l'addestramento, l'inferenza e la valutazione in un unico flusso di lavoro, facilitando la creazione di dataset potenziati con dati per l'addestramento e la valutazione di grandi modelli linguistici in contesti RAG. Questa integrazione consente una rapida prototipazione e sperimentazione con varie tecniche RAG, permettendo agli utenti di generare facilmente dataset e addestrare modelli RAG utilizzando fonti di conoscenza interne o specializzate. Dimostriamo l'efficacia del framework potenziando e ottimizzando i modelli Llama-3 e Phi-3 con diverse configurazioni RAG, mostrando miglioramenti consistenti su tre dataset ad alta intensità di conoscenza. Il codice è rilasciato come open-source su https://github.com/IntelLabs/RAGFoundry.
English
Implementing Retrieval-Augmented Generation (RAG) systems is inherently
complex, requiring deep understanding of data, use cases, and intricate design
decisions. Additionally, evaluating these systems presents significant
challenges, necessitating assessment of both retrieval accuracy and generative
quality through a multi-faceted approach. We introduce RAG Foundry, an
open-source framework for augmenting large language models for RAG use cases.
RAG Foundry integrates data creation, training, inference and evaluation into a
single workflow, facilitating the creation of data-augmented datasets for
training and evaluating large language models in RAG settings. This integration
enables rapid prototyping and experimentation with various RAG techniques,
allowing users to easily generate datasets and train RAG models using internal
or specialized knowledge sources. We demonstrate the framework effectiveness by
augmenting and fine-tuning Llama-3 and Phi-3 models with diverse RAG
configurations, showcasing consistent improvements across three
knowledge-intensive datasets. Code is released as open-source in
https://github.com/IntelLabs/RAGFoundry.