ChatPaper.aiChatPaper

LLM 루프 활용: 혐오 발언 해독을 위한 PARADEHATE 데이터셋 구축

LLM in the Loop: Creating the PARADEHATE Dataset for Hate Speech Detoxification

June 2, 2025
저자: Shuzhou Yuan, Ercong Nie, Lukas Kouba, Ashish Yashwanth Kangen, Helmut Schmid, Hinrich Schutze, Michael Farber
cs.AI

초록

유해 언어를 비유해 텍스트로 재작성하는 작업인 디톡시피케이션은 온라인상의 유해 콘텐츠가 증가함에 따라 점점 더 중요해지고 있다. 그러나 특히 혐오 발언에 대한 디톡시피케이션을 위한 고품질 병렬 데이터셋은 인간 주석의 비용과 민감성으로 인해 여전히 부족한 실정이다. 본 논문에서는 GPT-4o-mini를 활용한 새로운 LLM-in-the-loop 파이프라인을 제안하여 자동화된 디톡시피케이션을 수행한다. 먼저, ParaDetox 파이프라인을 인간 주석자 대신 LLM으로 대체하여 복제하고, LLM이 인간 주석과 비슷한 성능을 보임을 확인한다. 이를 바탕으로, 혐오 발언 디톡시피케이션을 위한 대규모 병렬 데이터셋인 PARADEHATE를 구축한다. 8,000개 이상의 혐오/비혐오 텍스트 쌍으로 구성된 PARADEHATE를 벤치마크로 공개하고, 다양한 베이스라인 방법을 평가한다. 실험 결과, PARADEHATE로 미세 조정된 BART와 같은 모델들이 스타일 정확도, 콘텐츠 보존, 유창성 측면에서 더 나은 성능을 달성함으로써, LLM이 생성한 디톡시피케이션 텍스트가 인간 주석의 확장 가능한 대안으로서 효과적임을 입증한다.
English
Detoxification, the task of rewriting harmful language into non-toxic text, has become increasingly important amid the growing prevalence of toxic content online. However, high-quality parallel datasets for detoxification, especially for hate speech, remain scarce due to the cost and sensitivity of human annotation. In this paper, we propose a novel LLM-in-the-loop pipeline leveraging GPT-4o-mini for automated detoxification. We first replicate the ParaDetox pipeline by replacing human annotators with an LLM and show that the LLM performs comparably to human annotation. Building on this, we construct PARADEHATE, a large-scale parallel dataset specifically for hatespeech detoxification. We release PARADEHATE as a benchmark of over 8K hate/non-hate text pairs and evaluate a wide range of baseline methods. Experimental results show that models such as BART, fine-tuned on PARADEHATE, achieve better performance in style accuracy, content preservation, and fluency, demonstrating the effectiveness of LLM-generated detoxification text as a scalable alternative to human annotation.
PDF43June 3, 2025