ChatPaper.aiChatPaper

<think> Remplaçons donc cette expression par une insulte... </think> Leçons tirées de la génération de textes toxiques avec des LLM

<think> So let's replace this phrase with insult... </think> Lessons learned from generation of toxic texts with LLMs

September 10, 2025
papers.authors: Sergey Pletenev, Daniil Moskovskiy, Alexander Panchenko
cs.AI

papers.abstract

Les modèles de langage modernes de grande taille (LLMs) excellent dans la génération de données synthétiques. Cependant, leurs performances dans des domaines sensibles tels que la détoxification de texte n'ont pas reçu l'attention appropriée de la part de la communauté scientifique. Cet article explore la possibilité d'utiliser des données toxiques synthétiques générées par des LLMs comme alternative aux données générées par des humains pour entraîner des modèles de détoxification. En utilisant les modèles Llama 3 et Qwen avec activation patchée, nous avons généré des contreparties toxiques synthétiques pour des textes neutres issus des ensembles de données ParaDetox et SST-2. Nos expériences montrent que les modèles affinés sur des données synthétiques performent systématiquement moins bien que ceux entraînés sur des données humaines, avec une baisse de performance allant jusqu'à 30 % dans les métriques conjointes. La cause principale est identifiée comme un écart critique dans la diversité lexicale : les LLMs génèrent du contenu toxique en utilisant un vocabulaire restreint et répétitif d'insultes qui ne parvient pas à capturer les nuances et la variété de la toxicité humaine. Ces résultats mettent en lumière les limites des LLMs actuels dans ce domaine et soulignent l'importance continue de données annotées par des humains et diversifiées pour construire des systèmes de détoxification robustes.
English
Modern Large Language Models (LLMs) are excellent at generating synthetic data. However, their performance in sensitive domains such as text detoxification has not received proper attention from the scientific community. This paper explores the possibility of using LLM-generated synthetic toxic data as an alternative to human-generated data for training models for detoxification. Using Llama 3 and Qwen activation-patched models, we generated synthetic toxic counterparts for neutral texts from ParaDetox and SST-2 datasets. Our experiments show that models fine-tuned on synthetic data consistently perform worse than those trained on human data, with a drop in performance of up to 30% in joint metrics. The root cause is identified as a critical lexical diversity gap: LLMs generate toxic content using a small, repetitive vocabulary of insults that fails to capture the nuances and variety of human toxicity. These findings highlight the limitations of current LLMs in this domain and emphasize the continued importance of diverse, human-annotated data for building robust detoxification systems.
PDF82September 11, 2025