FactAlign: Factualiteitsafstemming van lange vorm van grote taalmodellen
FactAlign: Long-form Factuality Alignment of Large Language Models
October 2, 2024
Auteurs: Chao-Wei Huang, Yun-Nung Chen
cs.AI
Samenvatting
Grote taalmodellen hebben aanzienlijk potentieel aangetoond als de informatie-toegangsmotoren van de volgende generatie. Hun betrouwbaarheid wordt echter belemmerd door problemen van hallucinatie en het genereren van niet-feitelijke inhoud. Dit is met name problematisch bij lange antwoorden, waarbij het beoordelen en waarborgen van feitelijke nauwkeurigheid complex is. In dit artikel pakken we deze kloof aan door FactAlign voor te stellen, een nieuw uitlijningskader dat is ontworpen om de feitelijkheid van lange antwoorden van LLM's te verbeteren terwijl hun behulpzaamheid behouden blijft. We introduceren fKTO, een fijnmazig, zinsniveau uitlijningsalgoritme dat de Kahneman-Tversky Optimization (KTO) uitlijningsmethode uitbreidt. Door recente vooruitgang in automatische feitelijkheidsevaluatie te benutten, maakt FactAlign gebruik van fijnmazige feitelijkheidsbeoordelingen om het uitlijningsproces te sturen. Onze experimenten met open domein prompts en informatiezoekende vragen tonen aan dat FactAlign de feitelijke nauwkeurigheid van LLM-antwoorden aanzienlijk verbetert, terwijl ook hun behulpzaamheid toeneemt. Verdere analyses tonen aan dat FactAlign in staat is om LLM's te trainen om meer informatie te verstrekken zonder feitelijke precisie te verliezen, waardoor de feitelijke F1-score verbetert. Onze broncode, datasets en getrainde modellen zijn openbaar beschikbaar op https://github.com/MiuLab/FactAlign
English
Large language models have demonstrated significant potential as the
next-generation information access engines. However, their reliability is
hindered by issues of hallucination and generating non-factual content. This is
particularly problematic in long-form responses, where assessing and ensuring
factual accuracy is complex. In this paper, we address this gap by proposing
FactAlign, a novel alignment framework designed to enhance the factuality of
LLMs' long-form responses while maintaining their helpfulness. We introduce
fKTO, a fine-grained, sentence-level alignment algorithm that extends the
Kahneman-Tversky Optimization (KTO) alignment method. Leveraging recent
advances in automatic factuality evaluation, FactAlign utilizes fine-grained
factuality assessments to guide the alignment process. Our experiments on
open-domain prompts and information-seeking questions demonstrate that
FactAlign significantly improves the factual accuracy of LLM responses while
also improving their helpfulness. Further analyses identify that FactAlign is
capable of training LLMs to provide more information without losing factual
precision, thus improving the factual F1 score. Our source code, datasets, and
trained models are publicly available at https://github.com/MiuLab/FactAlignSummary
AI-Generated Summary