ChatPaper.aiChatPaper

SPAR: Поиск научных статей с использованием агентов на основе языковых моделей для улучшенного академического поиска

SPAR: Scholar Paper Retrieval with LLM-based Agents for Enhanced Academic Search

July 21, 2025
Авторы: Xiaofeng Shi, Yuduo Li, Qian Kou, Longbin Yu, Jinxin Xie, Hua Zhou
cs.AI

Аннотация

Последние достижения в области крупных языковых моделей (LLM) открыли новые возможности для поиска академической литературы. Однако существующие системы часто полагаются на жесткие алгоритмы и демонстрируют ограниченные способности к рассуждению. Мы представляем SPAR, мультиагентный фреймворк, который включает декомпозицию запросов на основе RefChain и эволюцию запросов для обеспечения более гибкого и эффективного поиска. Для систематической оценки мы также создали SPARBench, сложный бенчмарк с экспертными аннотациями релевантности. Результаты экспериментов показывают, что SPAR значительно превосходит сильные базовые модели, достигая увеличения F1 на +56% на AutoScholar и +23% на SPARBench по сравнению с лучшей базовой моделью. Вместе SPAR и SPARBench предоставляют масштабируемую, интерпретируемую и высокопроизводительную основу для продвижения исследований в области научного поиска. Код и данные будут доступны по адресу: https://github.com/xiaofengShi/SPAR.
English
Recent advances in large language models (LLMs) have opened new opportunities for academic literature retrieval. However, existing systems often rely on rigid pipelines and exhibit limited reasoning capabilities. We introduce SPAR, a multi-agent framework that incorporates RefChain-based query decomposition and query evolution to enable more flexible and effective search. To facilitate systematic evaluation, we also construct SPARBench, a challenging benchmark with expert-annotated relevance labels. Experimental results demonstrate that SPAR substantially outperforms strong baselines, achieving up to +56% F1 on AutoScholar and +23% F1 on SPARBench over the best-performing baseline. Together, SPAR and SPARBench provide a scalable, interpretable, and high-performing foundation for advancing research in scholarly retrieval. Code and data will be available at: https://github.com/xiaofengShi/SPAR
PDF111July 23, 2025