¿Son Suficientemente Buenos los Detectores de IA? Una Encuesta sobre la Calidad de los Conjuntos de Datos con Textos Generados por Máquinas
Are AI Detectors Good Enough? A Survey on Quality of Datasets With Machine-Generated Texts
October 18, 2024
Autores: German Gritsai, Anastasia Voznyuk, Andrey Grabovoy, Yury Chekhovich
cs.AI
Resumen
El rápido desarrollo de Modelos de Lenguaje Autoregresivos (LLMs, por sus siglas en inglés) ha mejorado significativamente la calidad de los textos generados, lo que hace necesario contar con detectores de textos generados por máquinas confiables. Ha surgido una gran cantidad de detectores y colecciones con fragmentos de IA, y varios métodos de detección incluso han mostrado una calidad de reconocimiento de hasta el 99.9% según las métricas objetivo en dichas colecciones. Sin embargo, la calidad de estos detectores tiende a disminuir drásticamente en entornos no controlados, planteando la pregunta: ¿Son los detectores realmente altamente confiables o sus altas puntuaciones de referencia provienen de la baja calidad de los conjuntos de datos de evaluación? En este documento, enfatizamos la necesidad de métodos robustos y cualitativos para evaluar los datos generados, a fin de estar protegidos contra el sesgo y la baja capacidad de generalización de los modelos futuros. Presentamos una revisión sistemática de conjuntos de datos de competiciones dedicadas a la detección de contenido generado por IA y proponemos métodos para evaluar la calidad de los conjuntos de datos que contienen fragmentos generados por IA. Además, discutimos la posibilidad de utilizar datos generados de alta calidad para lograr dos objetivos: mejorar el entrenamiento de los modelos de detección y mejorar los propios conjuntos de datos de entrenamiento. Nuestra contribución tiene como objetivo facilitar una mejor comprensión de la dinámica entre el texto humano y el generado por máquinas, lo que en última instancia respaldará la integridad de la información en un mundo cada vez más automatizado.
English
The rapid development of autoregressive Large Language Models (LLMs) has
significantly improved the quality of generated texts, necessitating reliable
machine-generated text detectors. A huge number of detectors and collections
with AI fragments have emerged, and several detection methods even showed
recognition quality up to 99.9% according to the target metrics in such
collections. However, the quality of such detectors tends to drop dramatically
in the wild, posing a question: Are detectors actually highly trustworthy or do
their high benchmark scores come from the poor quality of evaluation datasets?
In this paper, we emphasise the need for robust and qualitative methods for
evaluating generated data to be secure against bias and low generalising
ability of future model. We present a systematic review of datasets from
competitions dedicated to AI-generated content detection and propose methods
for evaluating the quality of datasets containing AI-generated fragments. In
addition, we discuss the possibility of using high-quality generated data to
achieve two goals: improving the training of detection models and improving the
training datasets themselves. Our contribution aims to facilitate a better
understanding of the dynamics between human and machine text, which will
ultimately support the integrity of information in an increasingly automated
world.Summary
AI-Generated Summary