ChatPaper.aiChatPaper

Contre-discours contextualisé : Stratégies d'adaptation, de personnalisation et d'évaluation

Contextualized Counterspeech: Strategies for Adaptation, Personalization, and Evaluation

December 10, 2024
Auteurs: Lorenzo Cima, Alessio Miaschi, Amaury Trujillo, Marco Avvenuti, Felice Dell'Orletta, Stefano Cresci
cs.AI

Résumé

La contremesure générée par l'IA offre une stratégie prometteuse et évolutive pour réduire la toxicité en ligne grâce à des réponses directes qui favorisent le dialogue civil. Cependant, les contremesures actuelles sont standardisées, sans adaptation au contexte de modération et aux utilisateurs impliqués. Nous proposons et évaluons plusieurs stratégies pour générer des contremesures personnalisées adaptées au contexte de modération et individualisées pour l'utilisateur modéré. Nous instruisons un modèle LLaMA2-13B pour générer des contremesures, en expérimentant avec différentes configurations basées sur des informations contextuelles variées et des stratégies de fine-tuning. Nous identifions les configurations qui génèrent des contremesures persuasives à travers une combinaison d'indicateurs quantitatifs et d'évaluations humaines collectées via une expérience de crowdsourcing à conception mixte préenregistrée. Les résultats montrent que les contremesures contextualisées peuvent surpasser de manière significative les contremesures génériques de pointe en termes d'adéquation et de persuasion, sans compromettre les autres caractéristiques. Nos conclusions révèlent également une faible corrélation entre les indicateurs quantitatifs et les évaluations humaines, suggérant que ces méthodes évaluent des aspects différents et soulignant le besoin de méthodologies d'évaluation nuancées. L'efficacité des contremesures générées par l'IA contextualisées et l'écart entre les évaluations humaines et algorithmiques soulignent l'importance d'une collaboration accrue entre l'humain et l'IA dans la modération de contenu.
English
AI-generated counterspeech offers a promising and scalable strategy to curb online toxicity through direct replies that promote civil discourse. However, current counterspeech is one-size-fits-all, lacking adaptation to the moderation context and the users involved. We propose and evaluate multiple strategies for generating tailored counterspeech that is adapted to the moderation context and personalized for the moderated user. We instruct an LLaMA2-13B model to generate counterspeech, experimenting with various configurations based on different contextual information and fine-tuning strategies. We identify the configurations that generate persuasive counterspeech through a combination of quantitative indicators and human evaluations collected via a pre-registered mixed-design crowdsourcing experiment. Results show that contextualized counterspeech can significantly outperform state-of-the-art generic counterspeech in adequacy and persuasiveness, without compromising other characteristics. Our findings also reveal a poor correlation between quantitative indicators and human evaluations, suggesting that these methods assess different aspects and highlighting the need for nuanced evaluation methodologies. The effectiveness of contextualized AI-generated counterspeech and the divergence between human and algorithmic evaluations underscore the importance of increased human-AI collaboration in content moderation.

Summary

AI-Generated Summary

PDF22December 11, 2024