ChatPaper.aiChatPaper

HateMirage: un dataset multidimensionale e spiegabile per decodificare l'odio falso e gli abusi sottili online

HateMirage: An Explainable Multi-Dimensional Dataset for Decoding Faux Hate and Subtle Online Abuse

March 3, 2026
Autori: Sai Kartheek Reddy Kasu, Shankar Biradar, Sunil Saumya, Md. Shad Akhtar
cs.AI

Abstract

L'odio sottile e indiretto rimane una sfida poco esplorata nella ricerca sulla sicurezza online, specialmente quando l'intento dannoso è incorporato in narrative ingannevoli o manipolative. I dataset esistenti sull'odio catturano principalmente la tossicità palese, sottorappresentando i modi sfumati in cui la disinformazione può incitare o normalizzare l'odio. Per colmare questa lacuna, presentiamo HateMirage, un nuovo dataset di commenti di "Falso Odio" progettato per far avanzare la ricerca sul ragionamento e la spiegabilità riguardo all'odio che emerge da narrative false o distorte. Il dataset è stato costruito identificando affermazioni di disinformazione ampiamente smentite da fonti di fact-checking e tracciando le relative discussioni su YouTube, ottenendo 4.530 commenti utente. Ogni commento è annotato lungo tre dimensioni interpretabili: Bersaglio (chi è colpito), Intento (la motivazione o l'obiettivo sottostante del commento) e Implicazione (il suo potenziale impatto sociale). A differenza di precedenti dataset di spiegabilità come HateXplain e HARE, che offrono un ragionamento a livello di token o monodimensionale, HateMirage introduce un framework di spiegazione multidimensionale che cattura l'interazione tra disinformazione, danno e conseguenza sociale. Testiamo diversi modelli linguistici open-source su HateMirage utilizzando ROUGE-L F1 e la similarità Sentence-BERT per valutare la coerenza delle spiegazioni. I risultati suggeriscono che la qualità della spiegazione potrebbe dipendere più dalla diversità del pre-addestramento e da dati orientati al ragionamento che dalla sola scala del modello. Accoppiando il ragionamento sulla disinformazione con l'attribuzione del danno, HateMirage stabilisce un nuovo punto di riferimento per il rilevamento interpretabile dell'odio e la ricerca sull'IA responsabile.
English
Subtle and indirect hate speech remains an underexplored challenge in online safety research, particularly when harmful intent is embedded within misleading or manipulative narratives. Existing hate speech datasets primarily capture overt toxicity, underrepresenting the nuanced ways misinformation can incite or normalize hate. To address this gap, we present HateMirage, a novel dataset of Faux Hate comments designed to advance reasoning and explainability research on hate emerging from fake or distorted narratives. The dataset was constructed by identifying widely debunked misinformation claims from fact-checking sources and tracing related YouTube discussions, resulting in 4,530 user comments. Each comment is annotated along three interpretable dimensions: Target (who is affected), Intent (the underlying motivation or goal behind the comment), and Implication (its potential social impact). Unlike prior explainability datasets such as HateXplain and HARE, which offer token-level or single-dimensional reasoning, HateMirage introduces a multi-dimensional explanation framework that captures the interplay between misinformation, harm, and social consequence. We benchmark multiple open-source language models on HateMirage using ROUGE-L F1 and Sentence-BERT similarity to assess explanation coherence. Results suggest that explanation quality may depend more on pretraining diversity and reasoning-oriented data rather than on model scale alone. By coupling misinformation reasoning with harm attribution, HateMirage establishes a new benchmark for interpretable hate detection and responsible AI research.
PDF12March 7, 2026