ChatPaper.aiChatPaper

FactAlign: Langform-Faktualitätsabgleich großer Sprachmodelle

FactAlign: Long-form Factuality Alignment of Large Language Models

October 2, 2024
Autoren: Chao-Wei Huang, Yun-Nung Chen
cs.AI

Zusammenfassung

Große Sprachmodelle haben ein signifikantes Potenzial als Informationszugriffsmaschinen der nächsten Generation gezeigt. Allerdings wird ihre Zuverlässigkeit durch Probleme wie Halluzinationen und die Generierung nicht-faktischer Inhalte beeinträchtigt. Dies ist besonders problematisch bei ausführlichen Antworten, bei denen die Bewertung und Sicherstellung der faktischen Genauigkeit komplex ist. In diesem Paper adressieren wir diese Lücke, indem wir FactAlign vorschlagen, ein neuartiges Ausrichtungsframework, das darauf abzielt, die Faktentreue der ausführlichen Antworten von LLMs zu verbessern, während ihre Hilfreichkeit erhalten bleibt. Wir stellen fKTO vor, einen feingliedrigen, auf Satzebene ausgerichteten Algorithmus, der die Kahneman-Tversky-Optimierung (KTO) Ausrichtungsmethode erweitert. Durch die Nutzung jüngster Fortschritte in der automatischen Faktentreuebewertung nutzt FactAlign feingliedrige Faktentreuebewertungen, um den Ausrichtungsprozess zu lenken. Unsere Experimente zu offenen Themenbereichen und informationsuchenden Fragen zeigen, dass FactAlign die faktische Genauigkeit von LLM-Antworten signifikant verbessert und gleichzeitig ihre Hilfreichkeit steigert. Weitere Analysen zeigen, dass FactAlign in der Lage ist, LLMs zu trainieren, um mehr Informationen bereitzustellen, ohne an faktischer Präzision zu verlieren, was wiederum den faktischen F1-Score verbessert. Unser Quellcode, Datensätze und trainierte Modelle sind öffentlich unter https://github.com/MiuLab/FactAlign verfügbar.
English
Large language models have demonstrated significant potential as the next-generation information access engines. However, their reliability is hindered by issues of hallucination and generating non-factual content. This is particularly problematic in long-form responses, where assessing and ensuring factual accuracy is complex. In this paper, we address this gap by proposing FactAlign, a novel alignment framework designed to enhance the factuality of LLMs' long-form responses while maintaining their helpfulness. We introduce fKTO, a fine-grained, sentence-level alignment algorithm that extends the Kahneman-Tversky Optimization (KTO) alignment method. Leveraging recent advances in automatic factuality evaluation, FactAlign utilizes fine-grained factuality assessments to guide the alignment process. Our experiments on open-domain prompts and information-seeking questions demonstrate that FactAlign significantly improves the factual accuracy of LLM responses while also improving their helpfulness. Further analyses identify that FactAlign is capable of training LLMs to provide more information without losing factual precision, thus improving the factual F1 score. Our source code, datasets, and trained models are publicly available at https://github.com/MiuLab/FactAlign

Summary

AI-Generated Summary

PDF92November 16, 2024