ChatPaper.aiChatPaper

¿Son Suficientemente Buenos los Detectores de IA? Una Encuesta sobre la Calidad de los Conjuntos de Datos con Textos Generados por Máquinas

Are AI Detectors Good Enough? A Survey on Quality of Datasets With Machine-Generated Texts

October 18, 2024
Autores: German Gritsai, Anastasia Voznyuk, Andrey Grabovoy, Yury Chekhovich
cs.AI

Resumen

El rápido desarrollo de Modelos de Lenguaje Autoregresivos (LLMs, por sus siglas en inglés) ha mejorado significativamente la calidad de los textos generados, lo que hace necesario contar con detectores de textos generados por máquinas confiables. Ha surgido una gran cantidad de detectores y colecciones con fragmentos de IA, y varios métodos de detección incluso han mostrado una calidad de reconocimiento de hasta el 99.9% según las métricas objetivo en dichas colecciones. Sin embargo, la calidad de estos detectores tiende a disminuir drásticamente en entornos no controlados, planteando la pregunta: ¿Son los detectores realmente altamente confiables o sus altas puntuaciones de referencia provienen de la baja calidad de los conjuntos de datos de evaluación? En este documento, enfatizamos la necesidad de métodos robustos y cualitativos para evaluar los datos generados, a fin de estar protegidos contra el sesgo y la baja capacidad de generalización de los modelos futuros. Presentamos una revisión sistemática de conjuntos de datos de competiciones dedicadas a la detección de contenido generado por IA y proponemos métodos para evaluar la calidad de los conjuntos de datos que contienen fragmentos generados por IA. Además, discutimos la posibilidad de utilizar datos generados de alta calidad para lograr dos objetivos: mejorar el entrenamiento de los modelos de detección y mejorar los propios conjuntos de datos de entrenamiento. Nuestra contribución tiene como objetivo facilitar una mejor comprensión de la dinámica entre el texto humano y el generado por máquinas, lo que en última instancia respaldará la integridad de la información en un mundo cada vez más automatizado.
English
The rapid development of autoregressive Large Language Models (LLMs) has significantly improved the quality of generated texts, necessitating reliable machine-generated text detectors. A huge number of detectors and collections with AI fragments have emerged, and several detection methods even showed recognition quality up to 99.9% according to the target metrics in such collections. However, the quality of such detectors tends to drop dramatically in the wild, posing a question: Are detectors actually highly trustworthy or do their high benchmark scores come from the poor quality of evaluation datasets? In this paper, we emphasise the need for robust and qualitative methods for evaluating generated data to be secure against bias and low generalising ability of future model. We present a systematic review of datasets from competitions dedicated to AI-generated content detection and propose methods for evaluating the quality of datasets containing AI-generated fragments. In addition, we discuss the possibility of using high-quality generated data to achieve two goals: improving the training of detection models and improving the training datasets themselves. Our contribution aims to facilitate a better understanding of the dynamics between human and machine text, which will ultimately support the integrity of information in an increasingly automated world.

Summary

AI-Generated Summary

PDF125November 16, 2024