ChatPaper.aiChatPaper

LLM en boucle : Création du jeu de données PARADEHATE pour la détoxification des discours haineux

LLM in the Loop: Creating the PARADEHATE Dataset for Hate Speech Detoxification

June 2, 2025
Auteurs: Shuzhou Yuan, Ercong Nie, Lukas Kouba, Ashish Yashwanth Kangen, Helmut Schmid, Hinrich Schutze, Michael Farber
cs.AI

Résumé

La détoxification, tâche consistant à reformuler un langage nocif en texte non toxique, est devenue de plus en plus importante face à la prévalence croissante de contenus toxiques en ligne. Cependant, les ensembles de données parallèles de haute qualité pour la détoxification, en particulier pour les discours haineux, restent rares en raison du coût et de la sensibilité de l'annotation humaine. Dans cet article, nous proposons une nouvelle pipeline innovante utilisant GPT-4o-mini en boucle pour la détoxification automatisée. Nous commençons par reproduire la pipeline ParaDetox en remplaçant les annotateurs humains par un modèle de langage (LLM) et montrons que ce dernier obtient des performances comparables à celles de l'annotation humaine. Sur cette base, nous construisons PARADEHATE, un ensemble de données parallèles à grande échelle spécifiquement dédié à la détoxification des discours haineux. Nous publions PARADEHATE comme un benchmark de plus de 8 000 paires de textes haineux/non haineux et évaluons une large gamme de méthodes de référence. Les résultats expérimentaux montrent que des modèles tels que BART, affinés sur PARADEHATE, obtiennent de meilleures performances en termes de précision stylistique, de préservation du contenu et de fluidité, démontrant ainsi l'efficacité de la détoxification générée par des LLM comme alternative évolutive à l'annotation humaine.
English
Detoxification, the task of rewriting harmful language into non-toxic text, has become increasingly important amid the growing prevalence of toxic content online. However, high-quality parallel datasets for detoxification, especially for hate speech, remain scarce due to the cost and sensitivity of human annotation. In this paper, we propose a novel LLM-in-the-loop pipeline leveraging GPT-4o-mini for automated detoxification. We first replicate the ParaDetox pipeline by replacing human annotators with an LLM and show that the LLM performs comparably to human annotation. Building on this, we construct PARADEHATE, a large-scale parallel dataset specifically for hatespeech detoxification. We release PARADEHATE as a benchmark of over 8K hate/non-hate text pairs and evaluate a wide range of baseline methods. Experimental results show that models such as BART, fine-tuned on PARADEHATE, achieve better performance in style accuracy, content preservation, and fluency, demonstrating the effectiveness of LLM-generated detoxification text as a scalable alternative to human annotation.
PDF43June 3, 2025