HateMirage: Een Verklaarbare Multidimensionale Dataset voor het Decoderen van Nephaat en Subtiel Online Misbruik
HateMirage: An Explainable Multi-Dimensional Dataset for Decoding Faux Hate and Subtle Online Abuse
March 3, 2026
Auteurs: Sai Kartheek Reddy Kasu, Shankar Biradar, Sunil Saumya, Md. Shad Akhtar
cs.AI
Samenvatting
Subtiele en indirecte haatspraak vormt een onderbelichte uitdaging in onderzoek naar online veiligheid, met name wanneer schadelijke intentie verweven is in misleidende of manipulerende narratieven. Bestaande datasets voor haatspraak richten zich voornamelijk op openlijke toxiciteit en vertegenwoordigen onvoldoende de genuanceerde manieren waarop desinformatie haat kan aanwakkeren of normaliseren. Om deze lacune aan te pakken, presenteren we HateMirage, een nieuwe dataset van Faux Hate-commentaren die is ontworpen om onderzoek naar redenering en verklaarbaarheid van haat die voortkomt uit valse of verdraaide narratieven te bevorderen. De dataset werd samengesteld door wijdverspreide en weerlegde desinformatieclaims van factcheckingsbronnen te identificeren en gerelateerde YouTube-discussies op te sporen, wat resulteerde in 4.530 gebruikerscommentaren. Elk commentaar is geannoteerd langs drie interpreteerbare dimensies: Doelwit (wie wordt getroffen), Intentie (de onderliggende motivatie of doel achter het commentaar) en Implicatie (de potentiële maatschappelijke impact). In tegenstelling tot eerdere verklaarbaarheidsdatasets zoals HateXplain en HARE, die token-level of eendimensionale redenering bieden, introduceert HateMirage een multidimensionaal verklaringskader dat de wisselwerking tussen desinformatie, schade en maatschappelijke gevolgen vastlegt. We testen meerdere open-source taalmodellen op HateMirage met behulp van ROUGE-L F1 en Sentence-BERT-gelijkheidscores om de samenhang van verklaringen te evalueren. Resultaten suggereren dat de kwaliteit van verklaringen mogelijk meer afhangt van de diversiteit tijdens de voorafgaande training en reasoning-gerichte data dan van de schaal van het model alleen. Door redenering over desinformatie te koppelen aan het toeschrijven van schade, vestigt HateMirage een nieuwe benchmark voor interpreteerbare haatdetectie en verantwoord AI-onderzoek.
English
Subtle and indirect hate speech remains an underexplored challenge in online safety research, particularly when harmful intent is embedded within misleading or manipulative narratives. Existing hate speech datasets primarily capture overt toxicity, underrepresenting the nuanced ways misinformation can incite or normalize hate. To address this gap, we present HateMirage, a novel dataset of Faux Hate comments designed to advance reasoning and explainability research on hate emerging from fake or distorted narratives. The dataset was constructed by identifying widely debunked misinformation claims from fact-checking sources and tracing related YouTube discussions, resulting in 4,530 user comments. Each comment is annotated along three interpretable dimensions: Target (who is affected), Intent (the underlying motivation or goal behind the comment), and Implication (its potential social impact). Unlike prior explainability datasets such as HateXplain and HARE, which offer token-level or single-dimensional reasoning, HateMirage introduces a multi-dimensional explanation framework that captures the interplay between misinformation, harm, and social consequence. We benchmark multiple open-source language models on HateMirage using ROUGE-L F1 and Sentence-BERT similarity to assess explanation coherence. Results suggest that explanation quality may depend more on pretraining diversity and reasoning-oriented data rather than on model scale alone. By coupling misinformation reasoning with harm attribution, HateMirage establishes a new benchmark for interpretable hate detection and responsible AI research.