ChatPaper.aiChatPaper

AutoRAG-HP: Ottimizzazione Automatica Online degli Iperparametri per la Generazione Aumentata dal Recupero

AutoRAG-HP: Automatic Online Hyper-Parameter Tuning for Retrieval-Augmented Generation

June 27, 2024
Autori: Jia Fu, Xiaoting Qin, Fangkai Yang, Lu Wang, Jue Zhang, Qingwei Lin, Yubo Chen, Dongmei Zhang, Saravan Rajmohan, Qi Zhang
cs.AI

Abstract

I recenti progressi nei Modelli Linguistici di Grande Dimensione hanno trasformato lo sviluppo del ML/AI, rendendo necessaria una rivalutazione dei principi dell'AutoML per i sistemi di Generazione Aumentata con Recupero (RAG). Per affrontare le sfide dell'ottimizzazione degli iperparametri e dell'adattamento online nei sistemi RAG, proponiamo il framework AutoRAG-HP, che formula la regolazione degli iperparametri come un problema di multi-armed bandit (MAB) online e introduce un nuovo metodo a due livelli di MAB Gerarchico (Hier-MAB) per un'esplorazione efficiente di ampi spazi di ricerca. Abbiamo condotto esperimenti estesi sulla regolazione di iperparametri, come il numero di documenti recuperati top-k, il rapporto di compressione dei prompt e i metodi di embedding, utilizzando i dataset ALCE-ASQA e Natural Questions. La nostra valutazione, basata sull'ottimizzazione congiunta di tutti e tre gli iperparametri, dimostra che i metodi di apprendimento online basati su MAB possono raggiungere un Recall@5 di circa 0,8 per scenari con gradienti prominenti nello spazio di ricerca, utilizzando solo circa il 20% delle chiamate API LLM richieste dall'approccio Grid Search. Inoltre, il metodo Hier-MAB proposto supera altri baseline in scenari di ottimizzazione più impegnativi. Il codice sarà reso disponibile all'indirizzo https://aka.ms/autorag.
English
Recent advancements in Large Language Models have transformed ML/AI development, necessitating a reevaluation of AutoML principles for the Retrieval-Augmented Generation (RAG) systems. To address the challenges of hyper-parameter optimization and online adaptation in RAG, we propose the AutoRAG-HP framework, which formulates the hyper-parameter tuning as an online multi-armed bandit (MAB) problem and introduces a novel two-level Hierarchical MAB (Hier-MAB) method for efficient exploration of large search spaces. We conduct extensive experiments on tuning hyper-parameters, such as top-k retrieved documents, prompt compression ratio, and embedding methods, using the ALCE-ASQA and Natural Questions datasets. Our evaluation from jointly optimization all three hyper-parameters demonstrate that MAB-based online learning methods can achieve Recall@5 approx 0.8 for scenarios with prominent gradients in search space, using only sim20% of the LLM API calls required by the Grid Search approach. Additionally, the proposed Hier-MAB approach outperforms other baselines in more challenging optimization scenarios. The code will be made available at https://aka.ms/autorag.
PDF101November 29, 2024