ChatPaper.aiChatPaper

Generación Aumentada por Cadena de Recuperación

Chain-of-Retrieval Augmented Generation

January 24, 2025
Autores: Liang Wang, Haonan Chen, Nan Yang, Xiaolong Huang, Zhicheng Dou, Furu Wei
cs.AI

Resumen

Este documento presenta un enfoque para entrenar modelos RAG similares a o1 que recuperan y razonan sobre información relevante paso a paso antes de generar la respuesta final. Los métodos RAG convencionales suelen realizar un solo paso de recuperación antes del proceso de generación, lo que limita su efectividad para abordar consultas complejas debido a resultados de recuperación imperfectos. En contraste, nuestro método propuesto, CoRAG (Generación Aumentada con Cadena de Recuperación), permite que el modelo reformule dinámicamente la consulta basándose en el estado evolutivo. Para entrenar CoRAG de manera efectiva, utilizamos muestreo de rechazo para generar automáticamente cadenas de recuperación intermedias, aumentando así los conjuntos de datos RAG existentes que solo proporcionan la respuesta final correcta. En el momento de la prueba, proponemos varias estrategias de decodificación para escalar el cálculo del modelo en el momento de la prueba controlando la longitud y el número de cadenas de recuperación muestreadas. Los resultados experimentales en múltiples benchmarks validan la eficacia de CoRAG, especialmente en tareas de pregunta y respuesta de múltiples saltos, donde observamos una mejora de más de 10 puntos en la puntuación EM en comparación con líneas de base sólidas. En el benchmark KILT, CoRAG establece un nuevo rendimiento de vanguardia en una amplia gama de tareas intensivas en conocimiento. Además, ofrecemos análisis exhaustivos para comprender el comportamiento de escalado de CoRAG, sentando las bases para futuras investigaciones destinadas a desarrollar modelos de base factual y fundamentada.
English
This paper introduces an approach for training o1-like RAG models that retrieve and reason over relevant information step by step before generating the final answer. Conventional RAG methods usually perform a single retrieval step before the generation process, which limits their effectiveness in addressing complex queries due to imperfect retrieval results. In contrast, our proposed method, CoRAG (Chain-of-Retrieval Augmented Generation), allows the model to dynamically reformulate the query based on the evolving state. To train CoRAG effectively, we utilize rejection sampling to automatically generate intermediate retrieval chains, thereby augmenting existing RAG datasets that only provide the correct final answer. At test time, we propose various decoding strategies to scale the model's test-time compute by controlling the length and number of sampled retrieval chains. Experimental results across multiple benchmarks validate the efficacy of CoRAG, particularly in multi-hop question answering tasks, where we observe more than 10 points improvement in EM score compared to strong baselines. On the KILT benchmark, CoRAG establishes a new state-of-the-art performance across a diverse range of knowledge-intensive tasks. Furthermore, we offer comprehensive analyses to understand the scaling behavior of CoRAG, laying the groundwork for future research aimed at developing factual and grounded foundation models.

Summary

AI-Generated Summary

PDF573January 27, 2025