ChatPaper.aiChatPaper

Engenharia de Haystack: Engenharia de Contexto para Avaliação de Contexto Longo Heterogêneo e Agente

Haystack Engineering: Context Engineering for Heterogeneous and Agentic Long-Context Evaluation

October 8, 2025
Autores: Mufei Li, Dongqi Fu, Limei Wang, Si Zhang, Hanqing Zeng, Kaan Sancak, Ruizhong Qiu, Haoyu Wang, Xiaoxin He, Xavier Bresson, Yinglong Xia, Chonglin Sun, Pan Li
cs.AI

Resumo

Modelos modernos de linguagem de grande escala (LLMs) com contexto longo apresentam bom desempenho em benchmarks sintéticos do tipo "agulha no palheiro" (NIAH), mas tais testes ignoram como contextos ruidosos surgem de recuperações enviesadas e fluxos de trabalho agentivos. Argumentamos que a engenharia de palheiros é necessária para construir contextos longos ruidosos que capturem fielmente fatores-chave do mundo real — distração de recuperadores heterogêneos enviesados e erros em cascata em fluxos de trabalho agentivos — para testar a robustez de modelos em contextos longos. Instanciamos isso por meio do HaystackCraft, um novo benchmark NIAH construído sobre a rede completa de hiperlinks da Wikipédia em inglês com perguntas de múltiplos saltos. O HaystackCraft avalia como estratégias heterogêneas de recuperação (por exemplo, esparsa, densa, híbrida e baseada em grafos) afetam a composição de distratores, a ordenação do palheiro e o desempenho subsequente dos LLMs. O HaystackCraft ainda estende o NIAH para configurações dinâmicas dependentes de LLMs que simulam operações agentivas, onde os modelos refinam consultas, refletem sobre seus raciocínios passados e decidem quando parar. Experimentos com 15 modelos de contexto longo mostram que (1) embora recuperadores densos mais fortes possam introduzir distratores mais desafiadores, o reranking baseado em grafos melhora simultaneamente a eficácia da recuperação e mitiga distratores mais prejudiciais; (2) em testes agentivos, até modelos avançados como o Gemini 2.5 Pro e o GPT-5 sofrem falhas em cascata devido a distratores autogerados ou lutam para realizar paradas precoces. Esses resultados destacam desafios persistentes no raciocínio agentivo de contexto longo e estabelecem o HaystackCraft como um valioso campo de testes para progressos futuros.
English
Modern long-context large language models (LLMs) perform well on synthetic "needle-in-a-haystack" (NIAH) benchmarks, but such tests overlook how noisy contexts arise from biased retrieval and agentic workflows. We argue that haystack engineering is necessary to construct noisy long contexts that faithfully capture key real-world factors -- distraction from heterogeneous biased retrievers and cascading errors in agentic workflows -- to test models' long-context robustness. We instantiate it through HaystackCraft, a new NIAH benchmark built on the full English Wikipedia hyperlink network with multi-hop questions. HaystackCraft evaluates how heterogeneous retrieval strategies (e.g., sparse, dense, hybrid, and graph-based) affect distractor composition, haystack ordering, and downstream LLM performance. HaystackCraft further extends NIAH to dynamic, LLM-dependent settings that simulate agentic operations, where models refine queries, reflect on their past reasonings, and decide when to stop. Experiments with 15 long-context models show that (1) while stronger dense retrievers can introduce more challenging distractors, graph-based reranking simultaneously improves retrieval effectiveness and mitigates more harmful distractors; (2) in agentic tests, even advanced models like Gemini 2.5 Pro and GPT-5 suffer cascading failures from self-generated distractors or struggle to perform early stops. These results highlight persistent challenges in agentic long-context reasoning and establish HaystackCraft as a valuable testbed for future progress.
PDF12October 16, 2025