ChatPaper.aiChatPaper

Инженерия Haystack: Контекстная инженерия для гетерогенной и агентной оценки длинных контекстов

Haystack Engineering: Context Engineering for Heterogeneous and Agentic Long-Context Evaluation

October 8, 2025
Авторы: Mufei Li, Dongqi Fu, Limei Wang, Si Zhang, Hanqing Zeng, Kaan Sancak, Ruizhong Qiu, Haoyu Wang, Xiaoxin He, Xavier Bresson, Yinglong Xia, Chonglin Sun, Pan Li
cs.AI

Аннотация

Современные крупные языковые модели (LLM) с длинным контекстом демонстрируют хорошие результаты на синтетических тестах типа "иголка в стоге сена" (NIAH), однако такие тесты упускают из виду, как шумные контексты возникают из-за предвзятости поиска и агентных рабочих процессов. Мы утверждаем, что инженерия стога сена необходима для создания шумных длинных контекстов, которые достоверно отражают ключевые факторы реального мира — отвлечение из-за разнородных предвзятых поисковых систем и каскадные ошибки в агентных рабочих процессах — для проверки устойчивости моделей к длинному контексту. Мы реализуем это через HaystackCraft, новый NIAH-бенчмарк, построенный на полной сети гиперссылок английской Википедии с вопросами, требующими многошагового рассуждения. HaystackCraft оценивает, как разнородные стратегии поиска (например, разреженные, плотные, гибридные и основанные на графах) влияют на состав отвлекающих элементов, порядок стога сена и производительность LLM. HaystackCraft также расширяет NIAH до динамических, зависящих от LLM сценариев, которые имитируют агентные операции, где модели уточняют запросы, анализируют свои прошлые рассуждения и решают, когда остановиться. Эксперименты с 15 моделями с длинным контекстом показывают, что (1) хотя более мощные плотные поисковые системы могут вводить более сложные отвлекающие элементы, ранжирование на основе графов одновременно улучшает эффективность поиска и снижает влияние более вредоносных отвлекающих элементов; (2) в агентных тестах даже продвинутые модели, такие как Gemini 2.5 Pro и GPT-5, страдают от каскадных сбоев из-за самостоятельно созданных отвлекающих элементов или испытывают трудности с ранней остановкой. Эти результаты подчеркивают сохраняющиеся проблемы в агентном рассуждении с длинным контекстом и устанавливают HaystackCraft как ценный полигон для будущих достижений.
English
Modern long-context large language models (LLMs) perform well on synthetic "needle-in-a-haystack" (NIAH) benchmarks, but such tests overlook how noisy contexts arise from biased retrieval and agentic workflows. We argue that haystack engineering is necessary to construct noisy long contexts that faithfully capture key real-world factors -- distraction from heterogeneous biased retrievers and cascading errors in agentic workflows -- to test models' long-context robustness. We instantiate it through HaystackCraft, a new NIAH benchmark built on the full English Wikipedia hyperlink network with multi-hop questions. HaystackCraft evaluates how heterogeneous retrieval strategies (e.g., sparse, dense, hybrid, and graph-based) affect distractor composition, haystack ordering, and downstream LLM performance. HaystackCraft further extends NIAH to dynamic, LLM-dependent settings that simulate agentic operations, where models refine queries, reflect on their past reasonings, and decide when to stop. Experiments with 15 long-context models show that (1) while stronger dense retrievers can introduce more challenging distractors, graph-based reranking simultaneously improves retrieval effectiveness and mitigates more harmful distractors; (2) in agentic tests, even advanced models like Gemini 2.5 Pro and GPT-5 suffer cascading failures from self-generated distractors or struggle to perform early stops. These results highlight persistent challenges in agentic long-context reasoning and establish HaystackCraft as a valuable testbed for future progress.
PDF32February 7, 2026