Agente Autodidacta de Comprensión de Contexto Extendido
Self-Taught Agentic Long Context Understanding
February 21, 2025
Autores: Yufan Zhuang, Xiaodong Yu, Jialian Wu, Ximeng Sun, Ze Wang, Jiang Liu, Yusheng Su, Jingbo Shang, Zicheng Liu, Emad Barsoum
cs.AI
Resumen
Responder a preguntas complejas de contexto largo sigue siendo un desafío importante para los modelos de lenguaje de gran escala (LLMs), ya que requiere aclaraciones efectivas de las preguntas y recuperación de contexto. Proponemos Comprensión de Contexto Largo Agéntica (AgenticLU), un marco diseñado para mejorar la comprensión de un LLM sobre dichas consultas mediante la integración de auto-aclaraciones específicas con fundamentación contextual dentro de un flujo de trabajo agéntico. En el núcleo de AgenticLU se encuentra la Cadena de Aclaraciones (CoC), donde los modelos refinan su comprensión a través de preguntas de aclaración autogeneradas y fundamentaciones contextuales correspondientes. Al escalar la inferencia como una búsqueda en árbol donde cada nodo representa un paso de CoC, logramos un 97.8% de recuperación de respuestas en NarrativeQA con una profundidad de búsqueda de hasta tres y un factor de ramificación de ocho. Para amortizar el alto costo de este proceso de búsqueda durante el entrenamiento, aprovechamos los pares de preferencia para cada paso obtenidos por el flujo de trabajo CoC y realizamos un ajuste fino del modelo en dos etapas: (1) ajuste fino supervisado para aprender estrategias efectivas de descomposición, y (2) optimización directa de preferencias para mejorar la calidad del razonamiento. Esto permite que los modelos AgenticLU generen aclaraciones y recuperen contexto relevante de manera efectiva y eficiente en una sola pasada de inferencia. Experimentos extensos en siete tareas de contexto largo demuestran que AgenticLU supera significativamente los métodos de prompting de vanguardia y los LLMs especializados en contexto largo, logrando un razonamiento multi-salto robusto mientras mantiene un rendimiento consistente a medida que crece la longitud del contexto.
English
Answering complex, long-context questions remains a major challenge for large
language models (LLMs) as it requires effective question clarifications and
context retrieval. We propose Agentic Long-Context Understanding (AgenticLU), a
framework designed to enhance an LLM's understanding of such queries by
integrating targeted self-clarification with contextual grounding within an
agentic workflow. At the core of AgenticLU is Chain-of-Clarifications (CoC),
where models refine their understanding through self-generated clarification
questions and corresponding contextual groundings. By scaling inference as a
tree search where each node represents a CoC step, we achieve 97.8% answer
recall on NarrativeQA with a search depth of up to three and a branching factor
of eight. To amortize the high cost of this search process to training, we
leverage the preference pairs for each step obtained by the CoC workflow and
perform two-stage model finetuning: (1) supervised finetuning to learn
effective decomposition strategies, and (2) direct preference optimization to
enhance reasoning quality. This enables AgenticLU models to generate
clarifications and retrieve relevant context effectively and efficiently in a
single inference pass. Extensive experiments across seven long-context tasks
demonstrate that AgenticLU significantly outperforms state-of-the-art prompting
methods and specialized long-context LLMs, achieving robust multi-hop reasoning
while sustaining consistent performance as context length grows.Summary
AI-Generated Summary