ChatPaper.aiChatPaper

AutoCitation : Alignement Auto-Supervisé pour l'Attribution de Contexte dans les Grands Modèles de Langage

SelfCite: Self-Supervised Alignment for Context Attribution in Large Language Models

February 13, 2025
Auteurs: Yung-Sung Chuang, Benjamin Cohen-Wang, Shannon Zejiang Shen, Zhaofeng Wu, Hu Xu, Xi Victoria Lin, James Glass, Shang-Wen Li, Wen-tau Yih
cs.AI

Résumé

Nous présentons SelfCite, une nouvelle approche auto-supervisée qui aligne les LLMs pour générer des citations de haute qualité et détaillées au niveau des phrases pour les énoncés dans leurs réponses générées. Au lieu de se fier uniquement à des annotations coûteuses et intensives en main-d'œuvre, SelfCite exploite un signal de récompense fourni par le LLM lui-même grâce à l'ablation de contexte : si une citation est nécessaire, supprimer le texte cité du contexte devrait empêcher la même réponse ; si elle est suffisante, conserver uniquement le texte cité devrait préserver la même réponse. Cette récompense peut guider la stratégie d'échantillonnage best-of-N au moment de l'inférence pour améliorer significativement la qualité des citations, ainsi que être utilisée dans l'optimisation des préférences pour ajuster directement les modèles afin de générer de meilleures citations. L'efficacité de SelfCite est démontrée en augmentant le score F1 des citations jusqu'à 5,3 points sur le banc d'essai LongBench-Cite à travers cinq tâches de question-réponse de longue forme.
English
We introduce SelfCite, a novel self-supervised approach that aligns LLMs to generate high-quality, fine-grained, sentence-level citations for the statements in their generated responses. Instead of only relying on costly and labor-intensive annotations, SelfCite leverages a reward signal provided by the LLM itself through context ablation: If a citation is necessary, removing the cited text from the context should prevent the same response; if sufficient, retaining the cited text alone should preserve the same response. This reward can guide the inference-time best-of-N sampling strategy to improve citation quality significantly, as well as be used in preference optimization to directly fine-tune the models for generating better citations. The effectiveness of SelfCite is demonstrated by increasing citation F1 up to 5.3 points on the LongBench-Cite benchmark across five long-form question answering tasks.

Summary

AI-Generated Summary

PDF362February 14, 2025