ChatPaper.aiChatPaper

RAG Foundry: Een Framework voor het Verbeteren van LLM's voor Retrieval Augmented Generation

RAG Foundry: A Framework for Enhancing LLMs for Retrieval Augmented Generation

August 5, 2024
Auteurs: Daniel Fleischer, Moshe Berchansky, Moshe Wasserblat, Peter Izsak
cs.AI

Samenvatting

Het implementeren van Retrieval-Augmented Generation (RAG)-systemen is van nature complex en vereist een diepgaand begrip van data, use cases en ingewikkelde ontwerpbeslissingen. Daarnaast brengt het evalueren van deze systemen aanzienlijke uitdagingen met zich mee, waarbij zowel de nauwkeurigheid van het ophalen als de kwaliteit van de generatie beoordeeld moeten worden via een veelzijdige aanpak. Wij introduceren RAG Foundry, een open-source framework voor het versterken van grote taalmodellen voor RAG-use cases. RAG Foundry integreert data-creatie, training, inferentie en evaluatie in een enkele workflow, wat het creëren van data-augmented datasets voor het trainen en evalueren van grote taalmodellen in RAG-omgevingen vergemakkelijkt. Deze integratie maakt snelle prototyping en experimentatie met diverse RAG-technieken mogelijk, waardoor gebruikers eenvoudig datasets kunnen genereren en RAG-modellen kunnen trainen met behulp van interne of gespecialiseerde kennisbronnen. We demonstreren de effectiviteit van het framework door Llama-3- en Phi-3-modellen te versterken en af te stemmen met diverse RAG-configuraties, waarbij consistente verbeteringen worden getoond over drie kennisintensieve datasets. De code is vrijgegeven als open-source op https://github.com/IntelLabs/RAGFoundry.
English
Implementing Retrieval-Augmented Generation (RAG) systems is inherently complex, requiring deep understanding of data, use cases, and intricate design decisions. Additionally, evaluating these systems presents significant challenges, necessitating assessment of both retrieval accuracy and generative quality through a multi-faceted approach. We introduce RAG Foundry, an open-source framework for augmenting large language models for RAG use cases. RAG Foundry integrates data creation, training, inference and evaluation into a single workflow, facilitating the creation of data-augmented datasets for training and evaluating large language models in RAG settings. This integration enables rapid prototyping and experimentation with various RAG techniques, allowing users to easily generate datasets and train RAG models using internal or specialized knowledge sources. We demonstrate the framework effectiveness by augmenting and fine-tuning Llama-3 and Phi-3 models with diverse RAG configurations, showcasing consistent improvements across three knowledge-intensive datasets. Code is released as open-source in https://github.com/IntelLabs/RAGFoundry.
PDF393February 7, 2026