FactAlign: Langform-Faktualitätsabgleich großer Sprachmodelle
FactAlign: Long-form Factuality Alignment of Large Language Models
October 2, 2024
Autoren: Chao-Wei Huang, Yun-Nung Chen
cs.AI
Zusammenfassung
Große Sprachmodelle haben ein signifikantes Potenzial als Informationszugriffsmaschinen der nächsten Generation gezeigt. Allerdings wird ihre Zuverlässigkeit durch Probleme wie Halluzinationen und die Generierung nicht-faktischer Inhalte beeinträchtigt. Dies ist besonders problematisch bei ausführlichen Antworten, bei denen die Bewertung und Sicherstellung der faktischen Genauigkeit komplex ist. In diesem Paper adressieren wir diese Lücke, indem wir FactAlign vorschlagen, ein neuartiges Ausrichtungsframework, das darauf abzielt, die Faktentreue der ausführlichen Antworten von LLMs zu verbessern, während ihre Hilfreichkeit erhalten bleibt. Wir stellen fKTO vor, einen feingliedrigen, auf Satzebene ausgerichteten Algorithmus, der die Kahneman-Tversky-Optimierung (KTO) Ausrichtungsmethode erweitert. Durch die Nutzung jüngster Fortschritte in der automatischen Faktentreuebewertung nutzt FactAlign feingliedrige Faktentreuebewertungen, um den Ausrichtungsprozess zu lenken. Unsere Experimente zu offenen Themenbereichen und informationsuchenden Fragen zeigen, dass FactAlign die faktische Genauigkeit von LLM-Antworten signifikant verbessert und gleichzeitig ihre Hilfreichkeit steigert. Weitere Analysen zeigen, dass FactAlign in der Lage ist, LLMs zu trainieren, um mehr Informationen bereitzustellen, ohne an faktischer Präzision zu verlieren, was wiederum den faktischen F1-Score verbessert. Unser Quellcode, Datensätze und trainierte Modelle sind öffentlich unter https://github.com/MiuLab/FactAlign verfügbar.
English
Large language models have demonstrated significant potential as the
next-generation information access engines. However, their reliability is
hindered by issues of hallucination and generating non-factual content. This is
particularly problematic in long-form responses, where assessing and ensuring
factual accuracy is complex. In this paper, we address this gap by proposing
FactAlign, a novel alignment framework designed to enhance the factuality of
LLMs' long-form responses while maintaining their helpfulness. We introduce
fKTO, a fine-grained, sentence-level alignment algorithm that extends the
Kahneman-Tversky Optimization (KTO) alignment method. Leveraging recent
advances in automatic factuality evaluation, FactAlign utilizes fine-grained
factuality assessments to guide the alignment process. Our experiments on
open-domain prompts and information-seeking questions demonstrate that
FactAlign significantly improves the factual accuracy of LLM responses while
also improving their helpfulness. Further analyses identify that FactAlign is
capable of training LLMs to provide more information without losing factual
precision, thus improving the factual F1 score. Our source code, datasets, and
trained models are publicly available at https://github.com/MiuLab/FactAlignSummary
AI-Generated Summary