ChatPaper.aiChatPaper

CiteGuard: Atribución Fiel de Citas para LLMs mediante Validación Aumentada por Recuperación

CiteGuard: Faithful Citation Attribution for LLMs via Retrieval-Augmented Validation

October 15, 2025
Autores: Yee Man Choi, Xuehang Guo, Yi R., Fung, Qingyun Wang
cs.AI

Resumen

Los Modelos de Lenguaje a Gran Escala (LLM) han surgido como asistentes prometedores para la escritura científica. Sin embargo, han surgido preocupaciones respecto a la calidad y fiabilidad del texto generado, una de las cuales es la precisión y fidelidad de las citas. Si bien la mayoría de los trabajos recientes se basan en métodos como el uso del LLM como juez, la fiabilidad de este enfoque por sí solo también es cuestionable. En este trabajo, replanteamos la evaluación de citas como un problema de alineación en la atribución de citas, que consiste en evaluar si las citas generadas por un LLM coinciden con las que un autor humano incluiría para el mismo texto. Proponemos CiteGuard, un marco de agente consciente de la recuperación de información, diseñado para proporcionar una base más fidedigna para la validación de citas. CiteGuard mejora el punto de referencia anterior en un 12,3% y alcanza hasta un 65,4% de precisión en el benchmark CiteME, a la par con el rendimiento humano (69,7%). También permite la identificación de citas alternativas pero válidas.
English
Large Language Models (LLMs) have emerged as promising assistants for scientific writing. However, there have been concerns regarding the quality and reliability of the generated text, one of which is the citation accuracy and faithfulness. While most recent work relies on methods such as LLM-as-a-Judge, the reliability of LLM-as-a-Judge alone is also in doubt. In this work, we reframe citation evaluation as a problem of citation attribution alignment, which is assessing whether LLM-generated citations match those a human author would include for the same text. We propose CiteGuard, a retrieval-aware agent framework designed to provide more faithful grounding for citation validation. CiteGuard improves the prior baseline by 12.3%, and achieves up to 65.4% accuracy on the CiteME benchmark, on par with human-level performance (69.7%). It also enables the identification of alternative but valid citations.
PDF72December 2, 2025