ChatPaper.aiChatPaper

Naar gepersonaliseerd diepgaand onderzoek: benchmarks en evaluaties

Towards Personalized Deep Research: Benchmarks and Evaluations

September 29, 2025
Auteurs: Yuan Liang, Jiaxian Li, Yuqing Wang, Piaohong Wang, Motong Tian, Pai Liu, Shuofei Qiao, Runnan Fang, He Zhu, Ge Zhang, Minghao Liu, Yuchen Eleanor Jiang, Ningyu Zhang, Wangchunshu Zhou
cs.AI

Samenvatting

Deep Research Agents (DRA's) kunnen autonoom complexe onderzoeken uitvoeren en uitgebreide rapporten genereren, wat hun sterke potentieel in de praktijk aantoont. Bestaande evaluaties zijn echter voornamelijk gebaseerd op gesloten benchmarks, terwijl open-ended deep research benchmarks schaars blijven en doorgaans gepersonaliseerde scenario's verwaarlozen. Om deze kloof te overbruggen, introduceren we Personalized Deep Research Bench, de eerste benchmark voor het evalueren van personalisatie in DRA's. Deze koppelt 50 diverse onderzoeks taken uit 10 domeinen aan 25 authentieke gebruikersprofielen die gestructureerde persona-kenmerken combineren met dynamische, real-world contexten, wat resulteert in 250 realistische gebruiker-taakvragen. Om de systeemprestaties te beoordelen, stellen we het PQR Evaluatie Framework voor, dat gezamenlijk (P) Personalisatie Afstemming, (Q) Inhoudskwaliteit en (R) Feitelijke Betrouwbaarheid meet. Onze experimenten met een reeks systemen belichten de huidige mogelijkheden en beperkingen bij het omgaan met gepersonaliseerd diepgaand onderzoek. Dit werk legt een rigoureuze basis voor de ontwikkeling en evaluatie van de volgende generatie echt gepersonaliseerde AI-onderzoeksassistenten.
English
Deep Research Agents (DRAs) can autonomously conduct complex investigations and generate comprehensive reports, demonstrating strong real-world potential. However, existing evaluations mostly rely on close-ended benchmarks, while open-ended deep research benchmarks remain scarce and typically neglect personalized scenarios. To bridge this gap, we introduce Personalized Deep Research Bench, the first benchmark for evaluating personalization in DRAs. It pairs 50 diverse research tasks across 10 domains with 25 authentic user profiles that combine structured persona attributes with dynamic real-world contexts, yielding 250 realistic user-task queries. To assess system performance, we propose the PQR Evaluation Framework, which jointly measures (P) Personalization Alignment, (Q) Content Quality, and (R) Factual Reliability. Our experiments on a range of systems highlight current capabilities and limitations in handling personalized deep research. This work establishes a rigorous foundation for developing and evaluating the next generation of truly personalized AI research assistants.
PDF271September 30, 2025