ChatPaper.aiChatPaper

FactAlign : Alignement de la factualité à longue portée des grands modèles de langage

FactAlign: Long-form Factuality Alignment of Large Language Models

October 2, 2024
Auteurs: Chao-Wei Huang, Yun-Nung Chen
cs.AI

Résumé

Les grands modèles de langage ont démontré un potentiel significatif en tant que moteurs d'accès à l'information de nouvelle génération. Cependant, leur fiabilité est entravée par des problèmes d'hallucination et de génération de contenu non factuel. Cela est particulièrement problématique dans les réponses de longue forme, où évaluer et garantir l'exactitude factuelle est complexe. Dans cet article, nous comblons cette lacune en proposant FactAlign, un nouveau cadre d'alignement conçu pour améliorer la factualité des réponses de longue forme des LLM tout en maintenant leur utilité. Nous présentons fKTO, un algorithme d'alignement au niveau des phrases, qui étend la méthode d'alignement Kahneman-Tversky Optimization (KTO). En tirant parti des avancées récentes en matière d'évaluation automatique de la factualité, FactAlign utilise des évaluations de factualité fines pour guider le processus d'alignement. Nos expériences sur des requêtes de domaine ouvert et des questions de recherche d'informations démontrent que FactAlign améliore significativement l'exactitude factuelle des réponses des LLM tout en améliorant leur utilité. Des analyses supplémentaires révèlent que FactAlign est capable de former les LLM à fournir plus d'informations sans perdre en précision factuelle, améliorant ainsi le score F1 factuel. Notre code source, nos ensembles de données et nos modèles entraînés sont disponibles publiquement sur https://github.com/MiuLab/FactAlign
English
Large language models have demonstrated significant potential as the next-generation information access engines. However, their reliability is hindered by issues of hallucination and generating non-factual content. This is particularly problematic in long-form responses, where assessing and ensuring factual accuracy is complex. In this paper, we address this gap by proposing FactAlign, a novel alignment framework designed to enhance the factuality of LLMs' long-form responses while maintaining their helpfulness. We introduce fKTO, a fine-grained, sentence-level alignment algorithm that extends the Kahneman-Tversky Optimization (KTO) alignment method. Leveraging recent advances in automatic factuality evaluation, FactAlign utilizes fine-grained factuality assessments to guide the alignment process. Our experiments on open-domain prompts and information-seeking questions demonstrate that FactAlign significantly improves the factual accuracy of LLM responses while also improving their helpfulness. Further analyses identify that FactAlign is capable of training LLMs to provide more information without losing factual precision, thus improving the factual F1 score. Our source code, datasets, and trained models are publicly available at https://github.com/MiuLab/FactAlign

Summary

AI-Generated Summary

PDF92November 16, 2024