Generación Aumentada por Cadena de Recuperación
Chain-of-Retrieval Augmented Generation
January 24, 2025
Autores: Liang Wang, Haonan Chen, Nan Yang, Xiaolong Huang, Zhicheng Dou, Furu Wei
cs.AI
Resumen
Este documento presenta un enfoque para entrenar modelos RAG similares a o1 que recuperan y razonan sobre información relevante paso a paso antes de generar la respuesta final. Los métodos RAG convencionales suelen realizar un solo paso de recuperación antes del proceso de generación, lo que limita su efectividad para abordar consultas complejas debido a resultados de recuperación imperfectos. En contraste, nuestro método propuesto, CoRAG (Generación Aumentada con Cadena de Recuperación), permite que el modelo reformule dinámicamente la consulta basándose en el estado evolutivo. Para entrenar CoRAG de manera efectiva, utilizamos muestreo de rechazo para generar automáticamente cadenas de recuperación intermedias, aumentando así los conjuntos de datos RAG existentes que solo proporcionan la respuesta final correcta. En el momento de la prueba, proponemos varias estrategias de decodificación para escalar el cálculo del modelo en el momento de la prueba controlando la longitud y el número de cadenas de recuperación muestreadas. Los resultados experimentales en múltiples benchmarks validan la eficacia de CoRAG, especialmente en tareas de pregunta y respuesta de múltiples saltos, donde observamos una mejora de más de 10 puntos en la puntuación EM en comparación con líneas de base sólidas. En el benchmark KILT, CoRAG establece un nuevo rendimiento de vanguardia en una amplia gama de tareas intensivas en conocimiento. Además, ofrecemos análisis exhaustivos para comprender el comportamiento de escalado de CoRAG, sentando las bases para futuras investigaciones destinadas a desarrollar modelos de base factual y fundamentada.
English
This paper introduces an approach for training o1-like RAG models that
retrieve and reason over relevant information step by step before generating
the final answer. Conventional RAG methods usually perform a single retrieval
step before the generation process, which limits their effectiveness in
addressing complex queries due to imperfect retrieval results. In contrast, our
proposed method, CoRAG (Chain-of-Retrieval Augmented Generation), allows the
model to dynamically reformulate the query based on the evolving state. To
train CoRAG effectively, we utilize rejection sampling to automatically
generate intermediate retrieval chains, thereby augmenting existing RAG
datasets that only provide the correct final answer. At test time, we propose
various decoding strategies to scale the model's test-time compute by
controlling the length and number of sampled retrieval chains. Experimental
results across multiple benchmarks validate the efficacy of CoRAG, particularly
in multi-hop question answering tasks, where we observe more than 10 points
improvement in EM score compared to strong baselines. On the KILT benchmark,
CoRAG establishes a new state-of-the-art performance across a diverse range of
knowledge-intensive tasks. Furthermore, we offer comprehensive analyses to
understand the scaling behavior of CoRAG, laying the groundwork for future
research aimed at developing factual and grounded foundation models.Summary
AI-Generated Summary