ChatPaper.aiChatPaper

ToVo: Taxonomía de Toxicidad mediante Votación

ToVo: Toxicity Taxonomy via Voting

June 21, 2024
Autores: Tinh Son Luong, Thanh-Thien Le, Thang Viet Doan, Linh Ngo Van, Thien Huu Nguyen, Diep Thi-Ngoc Nguyen
cs.AI

Resumen

Los modelos existentes de detección de contenido tóxico enfrentan limitaciones significativas, como la falta de transparencia, personalización y reproducibilidad. Estos desafíos surgen de la naturaleza cerrada de sus datos de entrenamiento y la escasez de explicaciones sobre su mecanismo de evaluación. Para abordar estos problemas, proponemos un mecanismo de creación de conjuntos de datos que integra procesos de votación y cadena de pensamiento, produciendo un conjunto de datos de código abierto de alta calidad para la detección de contenido tóxico. Nuestra metodología garantiza métricas de clasificación diversas para cada muestra e incluye tanto puntuaciones de clasificación como razonamientos explicativos para las clasificaciones. Utilizamos el conjunto de datos creado a través de nuestro mecanismo propuesto para entrenar nuestro modelo, el cual luego se compara con detectores ampliamente utilizados existentes. Nuestro enfoque no solo mejora la transparencia y la personalización, sino que también facilita un mejor ajuste fino para casos de uso específicos. Este trabajo contribuye con un marco robusto para el desarrollo de modelos de detección de contenido tóxico, enfatizando la apertura y la adaptabilidad, allanando así el camino para soluciones de moderación de contenido más efectivas y específicas para el usuario.
English
Existing toxic detection models face significant limitations, such as lack of transparency, customization, and reproducibility. These challenges stem from the closed-source nature of their training data and the paucity of explanations for their evaluation mechanism. To address these issues, we propose a dataset creation mechanism that integrates voting and chain-of-thought processes, producing a high-quality open-source dataset for toxic content detection. Our methodology ensures diverse classification metrics for each sample and includes both classification scores and explanatory reasoning for the classifications. We utilize the dataset created through our proposed mechanism to train our model, which is then compared against existing widely-used detectors. Our approach not only enhances transparency and customizability but also facilitates better fine-tuning for specific use cases. This work contributes a robust framework for developing toxic content detection models, emphasizing openness and adaptability, thus paving the way for more effective and user-specific content moderation solutions.

Summary

AI-Generated Summary

PDF31November 29, 2024