FactAlign : Alignement de la factualité à longue portée des grands modèles de langage
FactAlign: Long-form Factuality Alignment of Large Language Models
October 2, 2024
Auteurs: Chao-Wei Huang, Yun-Nung Chen
cs.AI
Résumé
Les grands modèles de langage ont démontré un potentiel significatif en tant que moteurs d'accès à l'information de nouvelle génération. Cependant, leur fiabilité est entravée par des problèmes d'hallucination et de génération de contenu non factuel. Cela est particulièrement problématique dans les réponses de longue forme, où évaluer et garantir l'exactitude factuelle est complexe. Dans cet article, nous comblons cette lacune en proposant FactAlign, un nouveau cadre d'alignement conçu pour améliorer la factualité des réponses de longue forme des LLM tout en maintenant leur utilité. Nous présentons fKTO, un algorithme d'alignement au niveau des phrases, qui étend la méthode d'alignement Kahneman-Tversky Optimization (KTO). En tirant parti des avancées récentes en matière d'évaluation automatique de la factualité, FactAlign utilise des évaluations de factualité fines pour guider le processus d'alignement. Nos expériences sur des requêtes de domaine ouvert et des questions de recherche d'informations démontrent que FactAlign améliore significativement l'exactitude factuelle des réponses des LLM tout en améliorant leur utilité. Des analyses supplémentaires révèlent que FactAlign est capable de former les LLM à fournir plus d'informations sans perdre en précision factuelle, améliorant ainsi le score F1 factuel. Notre code source, nos ensembles de données et nos modèles entraînés sont disponibles publiquement sur https://github.com/MiuLab/FactAlign
English
Large language models have demonstrated significant potential as the
next-generation information access engines. However, their reliability is
hindered by issues of hallucination and generating non-factual content. This is
particularly problematic in long-form responses, where assessing and ensuring
factual accuracy is complex. In this paper, we address this gap by proposing
FactAlign, a novel alignment framework designed to enhance the factuality of
LLMs' long-form responses while maintaining their helpfulness. We introduce
fKTO, a fine-grained, sentence-level alignment algorithm that extends the
Kahneman-Tversky Optimization (KTO) alignment method. Leveraging recent
advances in automatic factuality evaluation, FactAlign utilizes fine-grained
factuality assessments to guide the alignment process. Our experiments on
open-domain prompts and information-seeking questions demonstrate that
FactAlign significantly improves the factual accuracy of LLM responses while
also improving their helpfulness. Further analyses identify that FactAlign is
capable of training LLMs to provide more information without losing factual
precision, thus improving the factual F1 score. Our source code, datasets, and
trained models are publicly available at https://github.com/MiuLab/FactAlignSummary
AI-Generated Summary