ChatPaper.aiChatPaper

Génération augmentée par chaîne de récupération

Chain-of-Retrieval Augmented Generation

January 24, 2025
Auteurs: Liang Wang, Haonan Chen, Nan Yang, Xiaolong Huang, Zhicheng Dou, Furu Wei
cs.AI

Résumé

Cet article présente une approche pour entraîner des modèles RAG de type o1 qui récupèrent et raisonnent sur des informations pertinentes étape par étape avant de générer la réponse finale. Les méthodes RAG classiques effectuent généralement une seule étape de récupération avant le processus de génération, ce qui limite leur efficacité pour répondre à des requêtes complexes en raison de résultats de récupération imparfaits. En revanche, notre méthode proposée, CoRAG (Génération Augmentée par Chaîne de Récupération), permet au modèle de reformuler dynamiquement la requête en fonction de l'état évolutif. Pour entraîner efficacement CoRAG, nous utilisons l'échantillonnage par rejet pour générer automatiquement des chaînes de récupération intermédiaires, augmentant ainsi les ensembles de données RAG existants qui ne fournissent que la réponse finale correcte. Au moment des tests, nous proposons diverses stratégies de décodage pour adapter le calcul du modèle en fonction de la longueur et du nombre de chaînes de récupération échantillonnées. Les résultats expérimentaux sur plusieurs benchmarks valident l'efficacité de CoRAG, en particulier dans les tâches de question-réponse multi-sauts, où nous observons une amélioration de plus de 10 points du score EM par rapport aux références solides. Sur le benchmark KILT, CoRAG établit une nouvelle performance de pointe dans une gamme diversifiée de tâches intensives en connaissances. De plus, nous proposons des analyses approfondies pour comprendre le comportement à l'échelle de CoRAG, posant ainsi les bases pour de futures recherches visant à développer des modèles de base factuels et fondés.
English
This paper introduces an approach for training o1-like RAG models that retrieve and reason over relevant information step by step before generating the final answer. Conventional RAG methods usually perform a single retrieval step before the generation process, which limits their effectiveness in addressing complex queries due to imperfect retrieval results. In contrast, our proposed method, CoRAG (Chain-of-Retrieval Augmented Generation), allows the model to dynamically reformulate the query based on the evolving state. To train CoRAG effectively, we utilize rejection sampling to automatically generate intermediate retrieval chains, thereby augmenting existing RAG datasets that only provide the correct final answer. At test time, we propose various decoding strategies to scale the model's test-time compute by controlling the length and number of sampled retrieval chains. Experimental results across multiple benchmarks validate the efficacy of CoRAG, particularly in multi-hop question answering tasks, where we observe more than 10 points improvement in EM score compared to strong baselines. On the KILT benchmark, CoRAG establishes a new state-of-the-art performance across a diverse range of knowledge-intensive tasks. Furthermore, we offer comprehensive analyses to understand the scaling behavior of CoRAG, laying the groundwork for future research aimed at developing factual and grounded foundation models.

Summary

AI-Generated Summary

PDF573January 27, 2025