ChatPaper.aiChatPaper

DeepResearchGym: Eine kostenlose, transparente und reproduzierbare Evaluationsumgebung für tiefgehende Forschung

DeepResearchGym: A Free, Transparent, and Reproducible Evaluation Sandbox for Deep Research

May 25, 2025
Autoren: João Coelho, Jingjie Ning, Jingyuan He, Kangrui Mao, Abhijay Paladugu, Pranav Setlur, Jiahe Jin, Jamie Callan, João Magalhães, Bruno Martins, Chenyan Xiong
cs.AI

Zusammenfassung

Tiefe Forschungssysteme repräsentieren eine aufstrebende Klasse von agentenbasierten Informationsabrufmethoden, die umfassende und gut fundierte Berichte zu komplexen Anfragen generieren. Die meisten bestehenden Frameworks verlassen sich jedoch auf dynamische kommerzielle Such-APIs, die neben ihren Kosten auch Herausforderungen in Bezug auf Reproduzierbarkeit und Transparenz mit sich bringen. Um diese Einschränkungen zu überwinden, stellen wir DeepResearchGym vor, eine Open-Source-Sandbox, die eine reproduzierbare Such-API mit einem rigorosen Evaluierungsprotokoll zur Bewertung tiefer Forschungssysteme kombiniert. Die API indiziert groß angelegte öffentliche Webkorpora, nämlich ClueWeb22 und FineWeb, unter Verwendung eines modernen dichten Retrievers und einer approximativen nächsten Nachbarsuche via DiskANN. Sie erreicht eine geringere Latenz als populäre kommerzielle APIs und gewährleistet stabile Dokumentenrankings über mehrere Durchläufe hinweg, wobei sie frei für Forschungszwecke verfügbar ist. Um die Ausgaben tiefer Forschungssysteme zu bewerten, erweitern wir das Researchy Questions-Benchmark mit automatischen Metriken durch LLM-as-a-Judge-Bewertungen, um die Übereinstimmung mit den Informationsbedürfnissen der Nutzer, die Treue des Abrufs und die Qualität der Berichte zu messen. Experimentelle Ergebnisse zeigen, dass Systeme, die in DeepResearchGym integriert sind, eine vergleichbare Leistung zu denen mit kommerziellen APIs erreichen, wobei die Leistungsrankings über die Evaluierungsmetriken hinweg konsistent bleiben. Eine menschliche Evaluierungsstudie bestätigt weiterhin, dass unser automatisches Protokoll mit menschlichen Präferenzen übereinstimmt, und validiert damit die Fähigkeit des Frameworks, eine kontrollierte Bewertung tiefer Forschungssysteme zu unterstützen. Unser Code und die API-Dokumentation sind unter https://www.deepresearchgym.ai verfügbar.
English
Deep research systems represent an emerging class of agentic information retrieval methods that generate comprehensive and well-supported reports to complex queries. However, most existing frameworks rely on dynamic commercial search APIs, which pose reproducibility and transparency challenges in addition to their cost. To address these limitations, we introduce DeepResearchGym, an open-source sandbox that combines a reproducible search API with a rigorous evaluation protocol for benchmarking deep research systems. The API indexes large-scale public web corpora, namely ClueWeb22 and FineWeb, using a state-of-the-art dense retriever and approximate nearest neighbor search via DiskANN. It achieves lower latency than popular commercial APIs while ensuring stable document rankings across runs, and is freely available for research use. To evaluate deep research systems' outputs, we extend the Researchy Questions benchmark with automatic metrics through LLM-as-a-judge assessments to measure alignment with users' information needs, retrieval faithfulness, and report quality. Experimental results show that systems integrated with DeepResearchGym achieve performance comparable to those using commercial APIs, with performance rankings remaining consistent across evaluation metrics. A human evaluation study further confirms that our automatic protocol aligns with human preferences, validating the framework's ability to help support controlled assessment of deep research systems. Our code and API documentation are available at https://www.deepresearchgym.ai.

Summary

AI-Generated Summary

PDF252May 29, 2025