ChatPaper.aiChatPaper

Agente Autodidacta de Comprensión de Contexto Extendido

Self-Taught Agentic Long Context Understanding

February 21, 2025
Autores: Yufan Zhuang, Xiaodong Yu, Jialian Wu, Ximeng Sun, Ze Wang, Jiang Liu, Yusheng Su, Jingbo Shang, Zicheng Liu, Emad Barsoum
cs.AI

Resumen

Responder a preguntas complejas de contexto largo sigue siendo un desafío importante para los modelos de lenguaje de gran escala (LLMs), ya que requiere aclaraciones efectivas de las preguntas y recuperación de contexto. Proponemos Comprensión de Contexto Largo Agéntica (AgenticLU), un marco diseñado para mejorar la comprensión de un LLM sobre dichas consultas mediante la integración de auto-aclaraciones específicas con fundamentación contextual dentro de un flujo de trabajo agéntico. En el núcleo de AgenticLU se encuentra la Cadena de Aclaraciones (CoC), donde los modelos refinan su comprensión a través de preguntas de aclaración autogeneradas y fundamentaciones contextuales correspondientes. Al escalar la inferencia como una búsqueda en árbol donde cada nodo representa un paso de CoC, logramos un 97.8% de recuperación de respuestas en NarrativeQA con una profundidad de búsqueda de hasta tres y un factor de ramificación de ocho. Para amortizar el alto costo de este proceso de búsqueda durante el entrenamiento, aprovechamos los pares de preferencia para cada paso obtenidos por el flujo de trabajo CoC y realizamos un ajuste fino del modelo en dos etapas: (1) ajuste fino supervisado para aprender estrategias efectivas de descomposición, y (2) optimización directa de preferencias para mejorar la calidad del razonamiento. Esto permite que los modelos AgenticLU generen aclaraciones y recuperen contexto relevante de manera efectiva y eficiente en una sola pasada de inferencia. Experimentos extensos en siete tareas de contexto largo demuestran que AgenticLU supera significativamente los métodos de prompting de vanguardia y los LLMs especializados en contexto largo, logrando un razonamiento multi-salto robusto mientras mantiene un rendimiento consistente a medida que crece la longitud del contexto.
English
Answering complex, long-context questions remains a major challenge for large language models (LLMs) as it requires effective question clarifications and context retrieval. We propose Agentic Long-Context Understanding (AgenticLU), a framework designed to enhance an LLM's understanding of such queries by integrating targeted self-clarification with contextual grounding within an agentic workflow. At the core of AgenticLU is Chain-of-Clarifications (CoC), where models refine their understanding through self-generated clarification questions and corresponding contextual groundings. By scaling inference as a tree search where each node represents a CoC step, we achieve 97.8% answer recall on NarrativeQA with a search depth of up to three and a branching factor of eight. To amortize the high cost of this search process to training, we leverage the preference pairs for each step obtained by the CoC workflow and perform two-stage model finetuning: (1) supervised finetuning to learn effective decomposition strategies, and (2) direct preference optimization to enhance reasoning quality. This enables AgenticLU models to generate clarifications and retrieve relevant context effectively and efficiently in a single inference pass. Extensive experiments across seven long-context tasks demonstrate that AgenticLU significantly outperforms state-of-the-art prompting methods and specialized long-context LLMs, achieving robust multi-hop reasoning while sustaining consistent performance as context length grows.

Summary

AI-Generated Summary

PDF32February 25, 2025