ChatPaper.aiChatPaper

RAG 공장: 검색 증강 생성을 위한 LLMs 향상을 위한 프레임워크

RAG Foundry: A Framework for Enhancing LLMs for Retrieval Augmented Generation

August 5, 2024
저자: Daniel Fleischer, Moshe Berchansky, Moshe Wasserblat, Peter Izsak
cs.AI

초록

검색 증강 생성(Retrieval-Augmented Generation, RAG) 시스템을 구현하는 것은 본질적으로 복잡하며 데이터, 사용 사례 및 복잡한 설계 결정에 대한 심층적인 이해가 필요합니다. 또한, 이러한 시스템을 평가하는 것은 큰 어려움을 겪으며, 검색 정확도와 생성적 품질을 평가하기 위해 다각적인 접근이 필요합니다. 우리는 RAG 사용 사례를 위해 대규모 언어 모델을 증강하는 오픈 소스 프레임워크인 RAG Foundry를 소개합니다. RAG Foundry는 데이터 생성, 훈련, 추론 및 평가를 단일 워크플로우로 통합하여, RAG 설정에서 대규모 언어 모델을 훈련하고 평가하기 위한 데이터 증강 데이터셋의 생성을 용이하게 합니다. 이 통합은 다양한 RAG 기술로의 빠른 프로토타이핑과 실험을 가능하게 하며, 사용자가 내부 또는 전문 지식 원본을 활용하여 데이터셋을 쉽게 생성하고 RAG 모델을 훈련할 수 있습니다. 우리는 다양한 RAG 구성을 사용하여 Llama-3 및 Phi-3 모델을 증강 및 세밀 조정하여, 세 가지 지식 중심 데이터셋에서 일관된 개선을 보여주며, 프레임워크의 효과를 입증합니다. 코드는 https://github.com/IntelLabs/RAGFoundry에서 오픈 소스로 공개되었습니다.
English
Implementing Retrieval-Augmented Generation (RAG) systems is inherently complex, requiring deep understanding of data, use cases, and intricate design decisions. Additionally, evaluating these systems presents significant challenges, necessitating assessment of both retrieval accuracy and generative quality through a multi-faceted approach. We introduce RAG Foundry, an open-source framework for augmenting large language models for RAG use cases. RAG Foundry integrates data creation, training, inference and evaluation into a single workflow, facilitating the creation of data-augmented datasets for training and evaluating large language models in RAG settings. This integration enables rapid prototyping and experimentation with various RAG techniques, allowing users to easily generate datasets and train RAG models using internal or specialized knowledge sources. We demonstrate the framework effectiveness by augmenting and fine-tuning Llama-3 and Phi-3 models with diverse RAG configurations, showcasing consistent improvements across three knowledge-intensive datasets. Code is released as open-source in https://github.com/IntelLabs/RAGFoundry.

Summary

AI-Generated Summary

PDF382November 28, 2024