ChatPaper.aiChatPaper

SPAR : Récupération d'articles scientifiques avec des agents basés sur des LLM pour une recherche académique améliorée

SPAR: Scholar Paper Retrieval with LLM-based Agents for Enhanced Academic Search

July 21, 2025
papers.authors: Xiaofeng Shi, Yuduo Li, Qian Kou, Longbin Yu, Jinxin Xie, Hua Zhou
cs.AI

papers.abstract

Les récents progrès dans les modèles de langage de grande taille (LLMs) ont ouvert de nouvelles opportunités pour la recherche de littérature académique. Cependant, les systèmes existants reposent souvent sur des pipelines rigides et présentent des capacités de raisonnement limitées. Nous présentons SPAR, un cadre multi-agent qui intègre une décomposition de requêtes basée sur RefChain et une évolution de requêtes pour permettre une recherche plus flexible et efficace. Pour faciliter une évaluation systématique, nous construisons également SPARBench, un benchmark exigeant avec des étiquettes de pertinence annotées par des experts. Les résultats expérimentaux démontrent que SPAR surpasse significativement les bases de référence solides, atteignant jusqu'à +56 % de F1 sur AutoScholar et +23 % de F1 sur SPARBench par rapport à la meilleure base de référence. Ensemble, SPAR et SPARBench fournissent une base évolutive, interprétable et performante pour faire progresser la recherche dans le domaine de la recherche académique. Le code et les données seront disponibles à l'adresse suivante : https://github.com/xiaofengShi/SPAR.
English
Recent advances in large language models (LLMs) have opened new opportunities for academic literature retrieval. However, existing systems often rely on rigid pipelines and exhibit limited reasoning capabilities. We introduce SPAR, a multi-agent framework that incorporates RefChain-based query decomposition and query evolution to enable more flexible and effective search. To facilitate systematic evaluation, we also construct SPARBench, a challenging benchmark with expert-annotated relevance labels. Experimental results demonstrate that SPAR substantially outperforms strong baselines, achieving up to +56% F1 on AutoScholar and +23% F1 on SPARBench over the best-performing baseline. Together, SPAR and SPARBench provide a scalable, interpretable, and high-performing foundation for advancing research in scholarly retrieval. Code and data will be available at: https://github.com/xiaofengShi/SPAR
PDF111July 23, 2025