ChatPaper.aiChatPaper

Таблица лидеров FACTS: Комплексный эталонный тест фактической точности больших языковых моделей

The FACTS Leaderboard: A Comprehensive Benchmark for Large Language Model Factuality

December 11, 2025
Авторы: Aileen Cheng, Alon Jacovi, Amir Globerson, Ben Golan, Charles Kwong, Chris Alberti, Connie Tao, Eyal Ben-David, Gaurav Singh Tomar, Lukas Haas, Yonatan Bitton, Adam Bloniarz, Aijun Bai, Andrew Wang, Anfal Siddiqui, Arturo Bajuelos Castillo, Aviel Atias, Chang Liu, Corey Fry, Daniel Balle, Deepanway Ghosal, Doron Kukliansky, Dror Marcus, Elena Gribovskaya, Eran Ofek, Honglei Zhuang, Itay Laish, Jan Ackermann, Lily Wang, Meg Risdal, Megan Barnes, Michael Fink, Mohamed Amin, Moran Ambar, Natan Potikha, Nikita Gupta, Nitzan Katz, Noam Velan, Ofir Roval, Ori Ram, Polina Zablotskaia, Prathamesh Bang, Priyanka Agrawal, Rakesh Ghiya, Sanjay Ganapathy, Simon Baumgartner, Sofia Erell, Sushant Prakash, Thibault Sellam, Vikram Rao, Xuanhui Wang, Yaroslav Akulov, Yulong Yang, Zhen Yang, Zhixin Lai, Zhongru Wu, Anca Dragan, Avinatan Hassidim, Fernando Pereira, Slav Petrov, Srinivasan Venkatachary, Tulsee Doshi, Yossi Matias, Sasha Goldshtein, Dipanjan Das
cs.AI

Аннотация

Мы представляем The FACTS Leaderboard — комплексный набор онлайн-лидербордов и связанных с ними бенчмарков, который всесторонне оценивает способность языковых моделей генерировать фактически точные тексты в различных сценариях. Набор обеспечивает целостную оценку фактической точности путем агрегирования результатов моделей на четырех независимых суб-лидербордах: (1) FACTS Multimodal, измеряющий фактическую точность ответов на вопросы на основе изображений; (2) FACTS Parametric, оценивающий знание мира моделями через ответы на фактологические вопросы в закрытом режиме (без доступа к внешним источникам) на основе внутренних параметров; (3) FACTS Search, оценивающий фактическую точность в сценариях информационного поиска, где модель должна использовать поисковый API; и (4) FACTS Grounding (v2), оценивающий, основаны ли развернутые ответы на предоставленных документах и использующий существенно улучшенные модели-судьи. Каждый суб-лидерборд использует автоматизированные модели-судьи для оценки ответов моделей, а итоговый балл набора представляет собой среднее значение четырех компонентов, что предназначено для обеспечения надежной и сбалансированной оценки общей фактической точности модели. Набор лидербордов FACTS будет активно поддерживаться и содержать как публичные, так и приватные разделы, чтобы позволить внешнее участие, обеспечивая при этом его целостность. С ним можно ознакомиться по адресу https://www.kaggle.com/benchmarks/google/facts.
English
We introduce The FACTS Leaderboard, an online leaderboard suite and associated set of benchmarks that comprehensively evaluates the ability of language models to generate factually accurate text across diverse scenarios. The suite provides a holistic measure of factuality by aggregating the performance of models on four distinct sub-leaderboards: (1) FACTS Multimodal, which measures the factuality of responses to image-based questions; (2) FACTS Parametric, which assesses models' world knowledge by answering closed-book factoid questions from internal parameters; (3) FACTS Search, which evaluates factuality in information-seeking scenarios, where the model must use a search API; and (4) FACTS Grounding (v2), which evaluates whether long-form responses are grounded in provided documents, featuring significantly improved judge models. Each sub-leaderboard employs automated judge models to score model responses, and the final suite score is an average of the four components, designed to provide a robust and balanced assessment of a model's overall factuality. The FACTS Leaderboard Suite will be actively maintained, containing both public and private splits to allow for external participation while guarding its integrity. It can be found at https://www.kaggle.com/benchmarks/google/facts .
PDF31December 13, 2025