ChatPaper.aiChatPaper

FactAlign: Factualiteitsafstemming van lange vorm van grote taalmodellen

FactAlign: Long-form Factuality Alignment of Large Language Models

October 2, 2024
Auteurs: Chao-Wei Huang, Yun-Nung Chen
cs.AI

Samenvatting

Grote taalmodellen hebben aanzienlijk potentieel aangetoond als de informatie-toegangsmotoren van de volgende generatie. Hun betrouwbaarheid wordt echter belemmerd door problemen van hallucinatie en het genereren van niet-feitelijke inhoud. Dit is met name problematisch bij lange antwoorden, waarbij het beoordelen en waarborgen van feitelijke nauwkeurigheid complex is. In dit artikel pakken we deze kloof aan door FactAlign voor te stellen, een nieuw uitlijningskader dat is ontworpen om de feitelijkheid van lange antwoorden van LLM's te verbeteren terwijl hun behulpzaamheid behouden blijft. We introduceren fKTO, een fijnmazig, zinsniveau uitlijningsalgoritme dat de Kahneman-Tversky Optimization (KTO) uitlijningsmethode uitbreidt. Door recente vooruitgang in automatische feitelijkheidsevaluatie te benutten, maakt FactAlign gebruik van fijnmazige feitelijkheidsbeoordelingen om het uitlijningsproces te sturen. Onze experimenten met open domein prompts en informatiezoekende vragen tonen aan dat FactAlign de feitelijke nauwkeurigheid van LLM-antwoorden aanzienlijk verbetert, terwijl ook hun behulpzaamheid toeneemt. Verdere analyses tonen aan dat FactAlign in staat is om LLM's te trainen om meer informatie te verstrekken zonder feitelijke precisie te verliezen, waardoor de feitelijke F1-score verbetert. Onze broncode, datasets en getrainde modellen zijn openbaar beschikbaar op https://github.com/MiuLab/FactAlign
English
Large language models have demonstrated significant potential as the next-generation information access engines. However, their reliability is hindered by issues of hallucination and generating non-factual content. This is particularly problematic in long-form responses, where assessing and ensuring factual accuracy is complex. In this paper, we address this gap by proposing FactAlign, a novel alignment framework designed to enhance the factuality of LLMs' long-form responses while maintaining their helpfulness. We introduce fKTO, a fine-grained, sentence-level alignment algorithm that extends the Kahneman-Tversky Optimization (KTO) alignment method. Leveraging recent advances in automatic factuality evaluation, FactAlign utilizes fine-grained factuality assessments to guide the alignment process. Our experiments on open-domain prompts and information-seeking questions demonstrate that FactAlign significantly improves the factual accuracy of LLM responses while also improving their helpfulness. Further analyses identify that FactAlign is capable of training LLMs to provide more information without losing factual precision, thus improving the factual F1 score. Our source code, datasets, and trained models are publicly available at https://github.com/MiuLab/FactAlign

Summary

AI-Generated Summary

PDF92November 16, 2024