ChatPaper.aiChatPaper

Haystack Engineering: Context Engineering voor Heterogene en Agent-gebaseerde Evaluatie van Lange Contexten

Haystack Engineering: Context Engineering for Heterogeneous and Agentic Long-Context Evaluation

October 8, 2025
Auteurs: Mufei Li, Dongqi Fu, Limei Wang, Si Zhang, Hanqing Zeng, Kaan Sancak, Ruizhong Qiu, Haoyu Wang, Xiaoxin He, Xavier Bresson, Yinglong Xia, Chonglin Sun, Pan Li
cs.AI

Samenvatting

Moderne lange-context grote taalmodellen (LLMs) presteren goed op synthetische "naald-in-een-hooiberg" (NIAH) benchmarks, maar dergelijke tests negeren hoe rumoerige contexten ontstaan door bevooroordeelde retrievals en agent-gebaseerde workflows. Wij beargumenteren dat hooiberg-engineering noodzakelijk is om rumoerige lange contexten te construeren die belangrijke real-world factoren nauwkeurig weergeven — afleiding door heterogene bevooroordeelde retrievers en cascaderende fouten in agent-gebaseerde workflows — om de lange-context robuustheid van modellen te testen. We concretiseren dit via HaystackCraft, een nieuwe NIAH benchmark gebouwd op het volledige Engelse Wikipedia hyperlink-netwerk met multi-hop vragen. HaystackCraft evalueert hoe heterogene retrievalstrategieën (bijv. sparse, dense, hybrid en graph-based) de samenstelling van afleiders, de volgorde van de hooiberg en de downstream LLM-prestaties beïnvloeden. HaystackCraft breidt NIAH verder uit naar dynamische, LLM-afhankelijke instellingen die agent-gebaseerde operaties simuleren, waarbij modellen queries verfijnen, reflecteren op hun eerdere redeneringen en beslissen wanneer ze moeten stoppen. Experimenten met 15 lange-context modellen tonen aan dat (1) hoewel sterkere dense retrievers meer uitdagende afleiders kunnen introduceren, graph-based reranking tegelijkertijd de retrieval-effectiviteit verbetert en schadelijker afleiders vermindert; (2) in agent-gebaseerde tests lijden zelfs geavanceerde modellen zoals Gemini 2.5 Pro en GPT-5 aan cascaderende fouten door zelf gegenereerde afleiders of hebben ze moeite om vroegtijdig te stoppen. Deze resultaten benadrukken aanhoudende uitdagingen in agent-gebaseerde lange-context redenering en vestigen HaystackCraft als een waardevolle testomgeving voor toekomstige vooruitgang.
English
Modern long-context large language models (LLMs) perform well on synthetic "needle-in-a-haystack" (NIAH) benchmarks, but such tests overlook how noisy contexts arise from biased retrieval and agentic workflows. We argue that haystack engineering is necessary to construct noisy long contexts that faithfully capture key real-world factors -- distraction from heterogeneous biased retrievers and cascading errors in agentic workflows -- to test models' long-context robustness. We instantiate it through HaystackCraft, a new NIAH benchmark built on the full English Wikipedia hyperlink network with multi-hop questions. HaystackCraft evaluates how heterogeneous retrieval strategies (e.g., sparse, dense, hybrid, and graph-based) affect distractor composition, haystack ordering, and downstream LLM performance. HaystackCraft further extends NIAH to dynamic, LLM-dependent settings that simulate agentic operations, where models refine queries, reflect on their past reasonings, and decide when to stop. Experiments with 15 long-context models show that (1) while stronger dense retrievers can introduce more challenging distractors, graph-based reranking simultaneously improves retrieval effectiveness and mitigates more harmful distractors; (2) in agentic tests, even advanced models like Gemini 2.5 Pro and GPT-5 suffer cascading failures from self-generated distractors or struggle to perform early stops. These results highlight persistent challenges in agentic long-context reasoning and establish HaystackCraft as a valuable testbed for future progress.
PDF12October 16, 2025