ChatPaper.aiChatPaper

Comprensione Autodidatta Agente di Contesti Lunghi

Self-Taught Agentic Long Context Understanding

February 21, 2025
Autori: Yufan Zhuang, Xiaodong Yu, Jialian Wu, Ximeng Sun, Ze Wang, Jiang Liu, Yusheng Su, Jingbo Shang, Zicheng Liu, Emad Barsoum
cs.AI

Abstract

Rispondere a domande complesse e con contesto lungo rimane una sfida significativa per i grandi modelli linguistici (LLM), poiché richiede una chiara comprensione della domanda e un efficace recupero del contesto. Proponiamo Agentic Long-Context Understanding (AgenticLU), un framework progettato per migliorare la comprensione di tali query da parte di un LLM integrando l'auto-chiarificazione mirata con l'ancoraggio contestuale all'interno di un flusso di lavoro agentico. Al centro di AgenticLU si trova la Catena di Chiarificazioni (CoC), in cui i modelli affinano la loro comprensione attraverso domande di chiarificazione auto-generate e corrispondenti ancoraggi contestuali. Scalando l'inferenza come una ricerca ad albero, dove ogni nodo rappresenta un passo della CoC, otteniamo un richiamo delle risposte del 97,8% su NarrativeQA con una profondità di ricerca fino a tre e un fattore di ramificazione di otto. Per ammortizzare l'elevato costo di questo processo di ricerca durante l'addestramento, sfruttiamo le coppie di preferenze ottenute per ogni passo dal flusso di lavoro CoC e eseguiamo una fine-tuning del modello in due fasi: (1) fine-tuning supervisionato per apprendere strategie efficaci di scomposizione, e (2) ottimizzazione diretta delle preferenze per migliorare la qualità del ragionamento. Ciò consente ai modelli AgenticLU di generare chiarificazioni e recuperare contesti rilevanti in modo efficace ed efficiente in un singolo passaggio di inferenza. Esperimenti estesi su sette task con contesto lungo dimostrano che AgenticLU supera significativamente i metodi di prompting all'avanguardia e gli LLM specializzati per contesti lunghi, raggiungendo un ragionamento multi-hop robusto mantenendo prestazioni consistenti all'aumentare della lunghezza del contesto.
English
Answering complex, long-context questions remains a major challenge for large language models (LLMs) as it requires effective question clarifications and context retrieval. We propose Agentic Long-Context Understanding (AgenticLU), a framework designed to enhance an LLM's understanding of such queries by integrating targeted self-clarification with contextual grounding within an agentic workflow. At the core of AgenticLU is Chain-of-Clarifications (CoC), where models refine their understanding through self-generated clarification questions and corresponding contextual groundings. By scaling inference as a tree search where each node represents a CoC step, we achieve 97.8% answer recall on NarrativeQA with a search depth of up to three and a branching factor of eight. To amortize the high cost of this search process to training, we leverage the preference pairs for each step obtained by the CoC workflow and perform two-stage model finetuning: (1) supervised finetuning to learn effective decomposition strategies, and (2) direct preference optimization to enhance reasoning quality. This enables AgenticLU models to generate clarifications and retrieve relevant context effectively and efficiently in a single inference pass. Extensive experiments across seven long-context tasks demonstrate that AgenticLU significantly outperforms state-of-the-art prompting methods and specialized long-context LLMs, achieving robust multi-hop reasoning while sustaining consistent performance as context length grows.

Summary

AI-Generated Summary

PDF32February 25, 2025