CiteGuard : Attribution Fidèle des Citations pour les LLMs via une Validation Augmentée par Récupération d'Information
CiteGuard: Faithful Citation Attribution for LLMs via Retrieval-Augmented Validation
October 15, 2025
papers.authors: Yee Man Choi, Xuehang Guo, Yi R., Fung, Qingyun Wang
cs.AI
papers.abstract
Les grands modèles de langage (LLM) sont apparus comme des assistants prometteurs pour la rédaction scientifique. Cependant, des inquiétudes subsistent quant à la qualité et à la fiabilité du texte généré, notamment en ce qui concerne l'exactitude et la fidélité des citations. Alors que la plupart des travaux récents s'appuient sur des méthodes telles que l'évaluation par LLM (LLM-as-a-Judge), la fiabilité de cette approche isolée est également remise en question. Dans ce travail, nous reformulons l'évaluation des citations comme un problème d'alignement de l'attribution, qui consiste à évaluer si les citations générées par un LLM correspondent à celles qu'un auteur humain inclurait pour le même texte. Nous proposons CiteGuard, un cadre d'agent conscient du processus de recherche documentaire, conçu pour fournir une base plus fiable pour la validation des citations. CiteGuard améliore la baseline antérieure de 12,3 % et atteint une précision allant jusqu'à 65,4 % sur le benchmark CiteME, un niveau comparable aux performances humaines (69,7 %). Il permet également d'identifier des citations alternatives mais valides.
English
Large Language Models (LLMs) have emerged as promising assistants for
scientific writing. However, there have been concerns regarding the quality and
reliability of the generated text, one of which is the citation accuracy and
faithfulness. While most recent work relies on methods such as LLM-as-a-Judge,
the reliability of LLM-as-a-Judge alone is also in doubt. In this work, we
reframe citation evaluation as a problem of citation attribution alignment,
which is assessing whether LLM-generated citations match those a human author
would include for the same text. We propose CiteGuard, a retrieval-aware agent
framework designed to provide more faithful grounding for citation validation.
CiteGuard improves the prior baseline by 12.3%, and achieves up to 65.4%
accuracy on the CiteME benchmark, on par with human-level performance (69.7%).
It also enables the identification of alternative but valid citations.