ChatPaper.aiChatPaper

Compreensão Autodidata de Contexto Longo com Agência

Self-Taught Agentic Long Context Understanding

February 21, 2025
Autores: Yufan Zhuang, Xiaodong Yu, Jialian Wu, Ximeng Sun, Ze Wang, Jiang Liu, Yusheng Su, Jingbo Shang, Zicheng Liu, Emad Barsoum
cs.AI

Resumo

Responder a perguntas complexas e de contexto longo continua sendo um grande desafio para modelos de linguagem de grande escala (LLMs), pois exige esclarecimentos eficazes da pergunta e recuperação de contexto. Propomos o Entendimento de Contexto Longo Agente (AgenticLU), um framework projetado para aprimorar a compreensão de tais consultas por um LLM, integrando autoesclarecimentos direcionados com ancoragem contextual em um fluxo de trabalho agente. No cerne do AgenticLU está a Cadeia de Esclarecimentos (CoC), onde os modelos refinam sua compreensão por meio de perguntas de esclarecimento autogeradas e ancoragens contextuais correspondentes. Ao escalar a inferência como uma busca em árvore, onde cada nó representa uma etapa da CoC, alcançamos 97,8% de recall de respostas no NarrativeQA com uma profundidade de busca de até três e um fator de ramificação de oito. Para amortizar o alto custo desse processo de busca no treinamento, aproveitamos os pares de preferência para cada etapa obtidos pelo fluxo de trabalho da CoC e realizamos um ajuste fino do modelo em duas etapas: (1) ajuste fino supervisionado para aprender estratégias eficazes de decomposição e (2) otimização direta de preferência para aprimorar a qualidade do raciocínio. Isso permite que os modelos AgenticLU gerem esclarecimentos e recuperem contexto relevante de forma eficaz e eficiente em uma única passagem de inferência. Experimentos extensivos em sete tarefas de contexto longo demonstram que o AgenticLU supera significativamente os métodos de prompting state-of-the-art e LLMs especializados em contexto longo, alcançando raciocínio multi-hop robusto enquanto mantém desempenho consistente à medida que o comprimento do contexto aumenta.
English
Answering complex, long-context questions remains a major challenge for large language models (LLMs) as it requires effective question clarifications and context retrieval. We propose Agentic Long-Context Understanding (AgenticLU), a framework designed to enhance an LLM's understanding of such queries by integrating targeted self-clarification with contextual grounding within an agentic workflow. At the core of AgenticLU is Chain-of-Clarifications (CoC), where models refine their understanding through self-generated clarification questions and corresponding contextual groundings. By scaling inference as a tree search where each node represents a CoC step, we achieve 97.8% answer recall on NarrativeQA with a search depth of up to three and a branching factor of eight. To amortize the high cost of this search process to training, we leverage the preference pairs for each step obtained by the CoC workflow and perform two-stage model finetuning: (1) supervised finetuning to learn effective decomposition strategies, and (2) direct preference optimization to enhance reasoning quality. This enables AgenticLU models to generate clarifications and retrieve relevant context effectively and efficiently in a single inference pass. Extensive experiments across seven long-context tasks demonstrate that AgenticLU significantly outperforms state-of-the-art prompting methods and specialized long-context LLMs, achieving robust multi-hop reasoning while sustaining consistent performance as context length grows.

Summary

AI-Generated Summary

PDF32February 25, 2025