Compreensão Autodidata de Contexto Longo com Agência
Self-Taught Agentic Long Context Understanding
February 21, 2025
Autores: Yufan Zhuang, Xiaodong Yu, Jialian Wu, Ximeng Sun, Ze Wang, Jiang Liu, Yusheng Su, Jingbo Shang, Zicheng Liu, Emad Barsoum
cs.AI
Resumo
Responder a perguntas complexas e de contexto longo continua sendo um grande desafio para modelos de linguagem de grande escala (LLMs), pois exige esclarecimentos eficazes da pergunta e recuperação de contexto. Propomos o Entendimento de Contexto Longo Agente (AgenticLU), um framework projetado para aprimorar a compreensão de tais consultas por um LLM, integrando autoesclarecimentos direcionados com ancoragem contextual em um fluxo de trabalho agente. No cerne do AgenticLU está a Cadeia de Esclarecimentos (CoC), onde os modelos refinam sua compreensão por meio de perguntas de esclarecimento autogeradas e ancoragens contextuais correspondentes. Ao escalar a inferência como uma busca em árvore, onde cada nó representa uma etapa da CoC, alcançamos 97,8% de recall de respostas no NarrativeQA com uma profundidade de busca de até três e um fator de ramificação de oito. Para amortizar o alto custo desse processo de busca no treinamento, aproveitamos os pares de preferência para cada etapa obtidos pelo fluxo de trabalho da CoC e realizamos um ajuste fino do modelo em duas etapas: (1) ajuste fino supervisionado para aprender estratégias eficazes de decomposição e (2) otimização direta de preferência para aprimorar a qualidade do raciocínio. Isso permite que os modelos AgenticLU gerem esclarecimentos e recuperem contexto relevante de forma eficaz e eficiente em uma única passagem de inferência. Experimentos extensivos em sete tarefas de contexto longo demonstram que o AgenticLU supera significativamente os métodos de prompting state-of-the-art e LLMs especializados em contexto longo, alcançando raciocínio multi-hop robusto enquanto mantém desempenho consistente à medida que o comprimento do contexto aumenta.
English
Answering complex, long-context questions remains a major challenge for large
language models (LLMs) as it requires effective question clarifications and
context retrieval. We propose Agentic Long-Context Understanding (AgenticLU), a
framework designed to enhance an LLM's understanding of such queries by
integrating targeted self-clarification with contextual grounding within an
agentic workflow. At the core of AgenticLU is Chain-of-Clarifications (CoC),
where models refine their understanding through self-generated clarification
questions and corresponding contextual groundings. By scaling inference as a
tree search where each node represents a CoC step, we achieve 97.8% answer
recall on NarrativeQA with a search depth of up to three and a branching factor
of eight. To amortize the high cost of this search process to training, we
leverage the preference pairs for each step obtained by the CoC workflow and
perform two-stage model finetuning: (1) supervised finetuning to learn
effective decomposition strategies, and (2) direct preference optimization to
enhance reasoning quality. This enables AgenticLU models to generate
clarifications and retrieve relevant context effectively and efficiently in a
single inference pass. Extensive experiments across seven long-context tasks
demonstrate that AgenticLU significantly outperforms state-of-the-art prompting
methods and specialized long-context LLMs, achieving robust multi-hop reasoning
while sustaining consistent performance as context length grows.Summary
AI-Generated Summary