RAG Foundry: Een Framework voor het Verbeteren van LLM's voor Retrieval Augmented Generation
RAG Foundry: A Framework for Enhancing LLMs for Retrieval Augmented Generation
August 5, 2024
Auteurs: Daniel Fleischer, Moshe Berchansky, Moshe Wasserblat, Peter Izsak
cs.AI
Samenvatting
Het implementeren van Retrieval-Augmented Generation (RAG)-systemen is van nature complex en vereist een diepgaand begrip van data, use cases en ingewikkelde ontwerpbeslissingen. Daarnaast brengt het evalueren van deze systemen aanzienlijke uitdagingen met zich mee, waarbij zowel de nauwkeurigheid van het ophalen als de kwaliteit van de generatie beoordeeld moeten worden via een veelzijdige aanpak. Wij introduceren RAG Foundry, een open-source framework voor het versterken van grote taalmodellen voor RAG-use cases. RAG Foundry integreert data-creatie, training, inferentie en evaluatie in een enkele workflow, wat het creëren van data-augmented datasets voor het trainen en evalueren van grote taalmodellen in RAG-omgevingen vergemakkelijkt. Deze integratie maakt snelle prototyping en experimentatie met diverse RAG-technieken mogelijk, waardoor gebruikers eenvoudig datasets kunnen genereren en RAG-modellen kunnen trainen met behulp van interne of gespecialiseerde kennisbronnen. We demonstreren de effectiviteit van het framework door Llama-3- en Phi-3-modellen te versterken en af te stemmen met diverse RAG-configuraties, waarbij consistente verbeteringen worden getoond over drie kennisintensieve datasets. De code is vrijgegeven als open-source op https://github.com/IntelLabs/RAGFoundry.
English
Implementing Retrieval-Augmented Generation (RAG) systems is inherently
complex, requiring deep understanding of data, use cases, and intricate design
decisions. Additionally, evaluating these systems presents significant
challenges, necessitating assessment of both retrieval accuracy and generative
quality through a multi-faceted approach. We introduce RAG Foundry, an
open-source framework for augmenting large language models for RAG use cases.
RAG Foundry integrates data creation, training, inference and evaluation into a
single workflow, facilitating the creation of data-augmented datasets for
training and evaluating large language models in RAG settings. This integration
enables rapid prototyping and experimentation with various RAG techniques,
allowing users to easily generate datasets and train RAG models using internal
or specialized knowledge sources. We demonstrate the framework effectiveness by
augmenting and fine-tuning Llama-3 and Phi-3 models with diverse RAG
configurations, showcasing consistent improvements across three
knowledge-intensive datasets. Code is released as open-source in
https://github.com/IntelLabs/RAGFoundry.