ChatPaper.aiChatPaper

Обучение языковых моделей на графе знаний: исследование галлюцинаций и их обнаружимость

Training Language Models on the Knowledge Graph: Insights on Hallucinations and Their Detectability

August 14, 2024
Авторы: Jiri Hron, Laura Culp, Gamaleldin Elsayed, Rosanne Liu, Ben Adlam, Maxwell Bileschi, Bernd Bohnet, JD Co-Reyes, Noah Fiedel, C. Daniel Freeman, Izzeddin Gur, Kathleen Kenealy, Jaehoon Lee, Peter J. Liu, Gaurav Mishra, Igor Mordatch, Azade Nova, Roman Novak, Aaron Parisi, Jeffrey Pennington, Alex Rizkowsky, Isabelle Simpson, Hanie Sedghi, Jascha Sohl-dickstein, Kevin Swersky, Sharad Vikram, Tris Warkentin, Lechao Xiao, Kelvin Xu, Jasper Snoek, Simon Kornblith
cs.AI

Аннотация

Хотя многие возможности языковых моделей (LMs) улучшаются с увеличением бюджета обучения, влияние масштаба на галлюцинации пока не до конца понятно. Галлюцинации могут принимать различные формы, и нет универсального определения. Поэтому мы фокусируемся на изучении только тех галлюцинаций, где правильный ответ встречается дословно в наборе данных для обучения. Для полного контроля над содержимым обучающих данных мы создаем набор данных на основе графа знаний (KG) и используем его для обучения набора все более крупных LMs. Мы обнаружили, что для фиксированного набора данных более крупные и дольше обученные LMs галлюцинируют меньше. Однако для галлюцинаций на менее 5% обучающих данных требуется модель порядка большего масштаба и, следовательно, порядка больше вычислительных ресурсов, чем оптимально было описано в работе Хоффманна и др. (2022). Учитывая эту дороговизну, мы изучаем, как детекторы галлюцинаций зависят от масштаба. Хотя мы видим, что размер детектора улучшает производительность на выходах фиксированных LM, мы обнаруживаем обратную зависимость между масштабом LM и обнаружимостью его галлюцинаций.
English
While many capabilities of language models (LMs) improve with increased training budget, the influence of scale on hallucinations is not yet fully understood. Hallucinations come in many forms, and there is no universally accepted definition. We thus focus on studying only those hallucinations where a correct answer appears verbatim in the training set. To fully control the training data content, we construct a knowledge graph (KG)-based dataset, and use it to train a set of increasingly large LMs. We find that for a fixed dataset, larger and longer-trained LMs hallucinate less. However, hallucinating on leq5% of the training data requires an order of magnitude larger model, and thus an order of magnitude more compute, than Hoffmann et al. (2022) reported was optimal. Given this costliness, we study how hallucination detectors depend on scale. While we see detector size improves performance on fixed LM's outputs, we find an inverse relationship between the scale of the LM and the detectability of its hallucinations.

Summary

AI-Generated Summary

PDF162November 26, 2024