ChatPaper.aiChatPaper

Ingeniería de Haystack: Ingeniería de Contexto para la Evaluación de Contextos Largos Heterogéneos y Agénticos

Haystack Engineering: Context Engineering for Heterogeneous and Agentic Long-Context Evaluation

October 8, 2025
Autores: Mufei Li, Dongqi Fu, Limei Wang, Si Zhang, Hanqing Zeng, Kaan Sancak, Ruizhong Qiu, Haoyu Wang, Xiaoxin He, Xavier Bresson, Yinglong Xia, Chonglin Sun, Pan Li
cs.AI

Resumen

Los modelos de lenguaje de gran contexto modernos (LLMs) tienen un buen desempeño en los benchmarks sintéticos de "aguja en un pajar" (NIAH, por sus siglas en inglés), pero estas pruebas pasan por alto cómo los contextos ruidosos surgen de la recuperación sesgada y los flujos de trabajo agentivos. Argumentamos que la ingeniería de pajares es necesaria para construir contextos largos y ruidosos que capturen fielmente factores clave del mundo real —distracciones provenientes de recuperadores heterogéneos sesgados y errores en cascada en flujos de trabajo agentivos— para evaluar la robustez de los modelos en contextos largos. Lo implementamos a través de HaystackCraft, un nuevo benchmark NIAH construido sobre la red completa de hipervínculos de Wikipedia en inglés con preguntas de múltiples saltos. HaystackCraft evalúa cómo las estrategias de recuperación heterogéneas (por ejemplo, dispersas, densas, híbridas y basadas en grafos) afectan la composición de distractores, el orden del pajar y el desempeño posterior de los LLMs. Además, HaystackCraft extiende NIAH a entornos dinámicos y dependientes de LLMs que simulan operaciones agentivas, donde los modelos refinan consultas, reflexionan sobre sus razonamientos previos y deciden cuándo detenerse. Los experimentos con 15 modelos de gran contexto muestran que (1) aunque los recuperadores densos más potentes pueden introducir distractores más desafiantes, el reordenamiento basado en grafos mejora simultáneamente la efectividad de la recuperación y mitiga los distractores más perjudiciales; (2) en pruebas agentivas, incluso modelos avanzados como Gemini 2.5 Pro y GPT-5 sufren fallos en cascada debido a distractores autogenerados o tienen dificultades para realizar paradas tempranas. Estos resultados resaltan los desafíos persistentes en el razonamiento agentivo de contextos largos y establecen a HaystackCraft como un banco de pruebas valioso para futuros avances.
English
Modern long-context large language models (LLMs) perform well on synthetic "needle-in-a-haystack" (NIAH) benchmarks, but such tests overlook how noisy contexts arise from biased retrieval and agentic workflows. We argue that haystack engineering is necessary to construct noisy long contexts that faithfully capture key real-world factors -- distraction from heterogeneous biased retrievers and cascading errors in agentic workflows -- to test models' long-context robustness. We instantiate it through HaystackCraft, a new NIAH benchmark built on the full English Wikipedia hyperlink network with multi-hop questions. HaystackCraft evaluates how heterogeneous retrieval strategies (e.g., sparse, dense, hybrid, and graph-based) affect distractor composition, haystack ordering, and downstream LLM performance. HaystackCraft further extends NIAH to dynamic, LLM-dependent settings that simulate agentic operations, where models refine queries, reflect on their past reasonings, and decide when to stop. Experiments with 15 long-context models show that (1) while stronger dense retrievers can introduce more challenging distractors, graph-based reranking simultaneously improves retrieval effectiveness and mitigates more harmful distractors; (2) in agentic tests, even advanced models like Gemini 2.5 Pro and GPT-5 suffer cascading failures from self-generated distractors or struggle to perform early stops. These results highlight persistent challenges in agentic long-context reasoning and establish HaystackCraft as a valuable testbed for future progress.
PDF32February 7, 2026