SPAR : Récupération d'articles scientifiques avec des agents basés sur des LLM pour une recherche académique améliorée
SPAR: Scholar Paper Retrieval with LLM-based Agents for Enhanced Academic Search
July 21, 2025
papers.authors: Xiaofeng Shi, Yuduo Li, Qian Kou, Longbin Yu, Jinxin Xie, Hua Zhou
cs.AI
papers.abstract
Les récents progrès dans les modèles de langage de grande taille (LLMs) ont ouvert de nouvelles opportunités pour la recherche de littérature académique. Cependant, les systèmes existants reposent souvent sur des pipelines rigides et présentent des capacités de raisonnement limitées. Nous présentons SPAR, un cadre multi-agent qui intègre une décomposition de requêtes basée sur RefChain et une évolution de requêtes pour permettre une recherche plus flexible et efficace. Pour faciliter une évaluation systématique, nous construisons également SPARBench, un benchmark exigeant avec des étiquettes de pertinence annotées par des experts. Les résultats expérimentaux démontrent que SPAR surpasse significativement les bases de référence solides, atteignant jusqu'à +56 % de F1 sur AutoScholar et +23 % de F1 sur SPARBench par rapport à la meilleure base de référence. Ensemble, SPAR et SPARBench fournissent une base évolutive, interprétable et performante pour faire progresser la recherche dans le domaine de la recherche académique. Le code et les données seront disponibles à l'adresse suivante : https://github.com/xiaofengShi/SPAR.
English
Recent advances in large language models (LLMs) have opened new opportunities
for academic literature retrieval. However, existing systems often rely on
rigid pipelines and exhibit limited reasoning capabilities. We introduce SPAR,
a multi-agent framework that incorporates RefChain-based query decomposition
and query evolution to enable more flexible and effective search. To facilitate
systematic evaluation, we also construct SPARBench, a challenging benchmark
with expert-annotated relevance labels. Experimental results demonstrate that
SPAR substantially outperforms strong baselines, achieving up to +56% F1 on
AutoScholar and +23% F1 on SPARBench over the best-performing baseline.
Together, SPAR and SPARBench provide a scalable, interpretable, and
high-performing foundation for advancing research in scholarly retrieval. Code
and data will be available at: https://github.com/xiaofengShi/SPAR