ChatPaper.aiChatPaper

Em Direção à Pesquisa Profunda Personalizada: Benchmarks e Avaliações

Towards Personalized Deep Research: Benchmarks and Evaluations

September 29, 2025
Autores: Yuan Liang, Jiaxian Li, Yuqing Wang, Piaohong Wang, Motong Tian, Pai Liu, Shuofei Qiao, Runnan Fang, He Zhu, Ge Zhang, Minghao Liu, Yuchen Eleanor Jiang, Ningyu Zhang, Wangchunshu Zhou
cs.AI

Resumo

Agentes de Pesquisa Profunda (DRAs) podem conduzir investigações complexas de forma autônoma e gerar relatórios abrangentes, demonstrando um forte potencial no mundo real. No entanto, as avaliações existentes dependem principalmente de benchmarks de respostas fechadas, enquanto benchmarks de pesquisa profunda de respostas abertas permanecem escassos e geralmente negligenciam cenários personalizados. Para preencher essa lacuna, introduzimos o Personalized Deep Research Bench, o primeiro benchmark para avaliar a personalização em DRAs. Ele combina 50 tarefas de pesquisa diversas em 10 domínios com 25 perfis de usuários autênticos que integram atributos estruturados de persona com contextos dinâmicos do mundo real, resultando em 250 consultas realistas de usuário-tarefa. Para avaliar o desempenho do sistema, propomos o PQR Evaluation Framework, que mede conjuntamente (P) Alinhamento de Personalização, (Q) Qualidade do Conteúdo e (R) Confiabilidade Factual. Nossos experimentos em uma variedade de sistemas destacam as capacidades e limitações atuais no tratamento de pesquisas profundas personalizadas. Este trabalho estabelece uma base rigorosa para o desenvolvimento e avaliação da próxima geração de assistentes de pesquisa em IA verdadeiramente personalizados.
English
Deep Research Agents (DRAs) can autonomously conduct complex investigations and generate comprehensive reports, demonstrating strong real-world potential. However, existing evaluations mostly rely on close-ended benchmarks, while open-ended deep research benchmarks remain scarce and typically neglect personalized scenarios. To bridge this gap, we introduce Personalized Deep Research Bench, the first benchmark for evaluating personalization in DRAs. It pairs 50 diverse research tasks across 10 domains with 25 authentic user profiles that combine structured persona attributes with dynamic real-world contexts, yielding 250 realistic user-task queries. To assess system performance, we propose the PQR Evaluation Framework, which jointly measures (P) Personalization Alignment, (Q) Content Quality, and (R) Factual Reliability. Our experiments on a range of systems highlight current capabilities and limitations in handling personalized deep research. This work establishes a rigorous foundation for developing and evaluating the next generation of truly personalized AI research assistants.
PDF271September 30, 2025