ChatPaper.aiChatPaper

LLM no Loop: Criando o Conjunto de Dados PARADEHATE para a Desintoxicação de Discurso de Ódio

LLM in the Loop: Creating the PARADEHATE Dataset for Hate Speech Detoxification

June 2, 2025
Autores: Shuzhou Yuan, Ercong Nie, Lukas Kouba, Ashish Yashwanth Kangen, Helmut Schmid, Hinrich Schutze, Michael Farber
cs.AI

Resumo

A detoxificação, a tarefa de reescrever linguagem prejudicial em texto não tóxico, tornou-se cada vez mais importante diante da crescente prevalência de conteúdo tóxico online. No entanto, conjuntos de dados paralelos de alta qualidade para detoxificação, especialmente para discurso de ódio, permanecem escassos devido ao custo e à sensibilidade da anotação humana. Neste artigo, propomos um novo pipeline de LLM-in-the-loop que aproveita o GPT-4o-mini para detoxificação automatizada. Primeiro, replicamos o pipeline ParaDetox substituindo os anotadores humanos por um LLM e mostramos que o LLM tem desempenho comparável à anotação humana. Com base nisso, construímos o PARADEHATE, um conjunto de dados paralelo em grande escala especificamente para detoxificação de discurso de ódio. Disponibilizamos o PARADEHATE como um benchmark com mais de 8K pares de texto de ódio/não ódio e avaliamos uma ampla gama de métodos de linha de base. Os resultados experimentais mostram que modelos como o BART, ajustados no PARADEHATE, alcançam melhor desempenho em precisão de estilo, preservação de conteúdo e fluência, demonstrando a eficácia do texto de detoxificação gerado por LLM como uma alternativa escalável à anotação humana.
English
Detoxification, the task of rewriting harmful language into non-toxic text, has become increasingly important amid the growing prevalence of toxic content online. However, high-quality parallel datasets for detoxification, especially for hate speech, remain scarce due to the cost and sensitivity of human annotation. In this paper, we propose a novel LLM-in-the-loop pipeline leveraging GPT-4o-mini for automated detoxification. We first replicate the ParaDetox pipeline by replacing human annotators with an LLM and show that the LLM performs comparably to human annotation. Building on this, we construct PARADEHATE, a large-scale parallel dataset specifically for hatespeech detoxification. We release PARADEHATE as a benchmark of over 8K hate/non-hate text pairs and evaluate a wide range of baseline methods. Experimental results show that models such as BART, fine-tuned on PARADEHATE, achieve better performance in style accuracy, content preservation, and fluency, demonstrating the effectiveness of LLM-generated detoxification text as a scalable alternative to human annotation.
PDF53June 3, 2025