Достаточно ли хороши детекторы ИИ? Обзор качества наборов данных с машинно-сгенерированным текстом.
Are AI Detectors Good Enough? A Survey on Quality of Datasets With Machine-Generated Texts
October 18, 2024
Авторы: German Gritsai, Anastasia Voznyuk, Andrey Grabovoy, Yury Chekhovich
cs.AI
Аннотация
Быстрое развитие авторегрессионных моделей больших языковых моделей (LLM) значительно улучшило качество генерируемых текстов, что требует надежных машинных детекторов текста. Появилось огромное количество детекторов и коллекций с фрагментами искусственного интеллекта, и некоторые методы детекции показали качество распознавания до 99,9% согласно целевым метрикам в таких коллекциях. Однако качество таких детекторов имеет тенденцию к резкому снижению в реальных условиях, возникает вопрос: насколько детекторы действительно надежны, или их высокие показатели базируются на низком качестве наборов данных для оценки? В данной статье мы подчеркиваем необходимость надежных и качественных методов оценки сгенерированных данных для обеспечения защиты от предвзятости и низкой обобщающей способности будущих моделей. Мы представляем систематический обзор наборов данных из соревнований, посвященных обнаружению контента, сгенерированного искусственным интеллектом, и предлагаем методы оценки качества наборов данных, содержащих фрагменты искусственного интеллекта. Кроме того, мы обсуждаем возможность использования высококачественных сгенерированных данных для достижения двух целей: улучшения обучения моделей детекции и улучшения самих обучающих наборов данных. Наш вклад направлен на облегчение понимания взаимодействия между человеком и машинным текстом, что в конечном итоге поддерживает целостность информации во все более автоматизированном мире.
English
The rapid development of autoregressive Large Language Models (LLMs) has
significantly improved the quality of generated texts, necessitating reliable
machine-generated text detectors. A huge number of detectors and collections
with AI fragments have emerged, and several detection methods even showed
recognition quality up to 99.9% according to the target metrics in such
collections. However, the quality of such detectors tends to drop dramatically
in the wild, posing a question: Are detectors actually highly trustworthy or do
their high benchmark scores come from the poor quality of evaluation datasets?
In this paper, we emphasise the need for robust and qualitative methods for
evaluating generated data to be secure against bias and low generalising
ability of future model. We present a systematic review of datasets from
competitions dedicated to AI-generated content detection and propose methods
for evaluating the quality of datasets containing AI-generated fragments. In
addition, we discuss the possibility of using high-quality generated data to
achieve two goals: improving the training of detection models and improving the
training datasets themselves. Our contribution aims to facilitate a better
understanding of the dynamics between human and machine text, which will
ultimately support the integrity of information in an increasingly automated
world.