ChatPaper.aiChatPaper

LLM in the Loop: Erstellung des PARADEHATE-Datensatzes zur Entgiftung von Hassrede

LLM in the Loop: Creating the PARADEHATE Dataset for Hate Speech Detoxification

June 2, 2025
papers.authors: Shuzhou Yuan, Ercong Nie, Lukas Kouba, Ashish Yashwanth Kangen, Helmut Schmid, Hinrich Schutze, Michael Farber
cs.AI

papers.abstract

Detoxifikation, die Aufgabe, schädliche Sprache in nicht-toxischen Text umzuschreiben, hat angesichts der zunehmenden Verbreitung von toxischen Inhalten im Internet immer mehr an Bedeutung gewonnen. Hochwertige parallele Datensätze für die Detoxifikation, insbesondere für Hassrede, bleiben jedoch aufgrund der Kosten und Sensibilität der menschlichen Annotation knapp. In diesem Artikel schlagen wir eine neuartige LLM-in-the-loop-Pipeline vor, die GPT-4o-mini für die automatisierte Detoxifikation nutzt. Zunächst replizieren wir die ParaDetox-Pipeline, indem wir menschliche Annotatoren durch ein LLM ersetzen, und zeigen, dass das LLM vergleichbar mit menschlicher Annotation abschneidet. Darauf aufbauend erstellen wir PARADEHATE, einen groß angelegten parallelen Datensatz speziell für die Detoxifikation von Hassrede. Wir veröffentlichen PARADEHATE als Benchmark mit über 8.000 Hass-/Nicht-Hass-Textpaaren und evaluieren eine Vielzahl von Baseline-Methoden. Experimentelle Ergebnisse zeigen, dass Modelle wie BART, die auf PARADEHATE feinabgestimmt wurden, eine bessere Leistung in Bezug auf Stilgenauigkeit, Inhaltserhaltung und Flüssigkeit erzielen, was die Effektivität von LLM-generiertem Detoxifikationstext als skalierbare Alternative zur menschlichen Annotation demonstriert.
English
Detoxification, the task of rewriting harmful language into non-toxic text, has become increasingly important amid the growing prevalence of toxic content online. However, high-quality parallel datasets for detoxification, especially for hate speech, remain scarce due to the cost and sensitivity of human annotation. In this paper, we propose a novel LLM-in-the-loop pipeline leveraging GPT-4o-mini for automated detoxification. We first replicate the ParaDetox pipeline by replacing human annotators with an LLM and show that the LLM performs comparably to human annotation. Building on this, we construct PARADEHATE, a large-scale parallel dataset specifically for hatespeech detoxification. We release PARADEHATE as a benchmark of over 8K hate/non-hate text pairs and evaluate a wide range of baseline methods. Experimental results show that models such as BART, fine-tuned on PARADEHATE, achieve better performance in style accuracy, content preservation, and fluency, demonstrating the effectiveness of LLM-generated detoxification text as a scalable alternative to human annotation.
PDF53June 3, 2025