HateMirage: Объясняемый многомерный набор данных для выявления ложной ненависти и тонких форм сетевого насилия
HateMirage: An Explainable Multi-Dimensional Dataset for Decoding Faux Hate and Subtle Online Abuse
March 3, 2026
Авторы: Sai Kartheek Reddy Kasu, Shankar Biradar, Sunil Saumya, Md. Shad Akhtar
cs.AI
Аннотация
Скрытая и косвенная ненавистническая риторика остается малоизученной проблемой в исследованиях безопасности в интернете, особенно когда вредоносный умысел встроен в вводящие в заблуждение или манипулятивные нарративы. Существующие наборы данных по ненавистническим высказываниям в основном фиксируют явную токсичность, недостаточно отражая тонкие способы, которыми дезинформация может разжигать или нормализовывать ненависть. Чтобы восполнить этот пробел, мы представляем HateMirage — новый набор данных, содержащий «ложные» комментарии с элементами ненависти (Faux Hate), предназначенный для развития исследований в области анализа и объяснимости ненависти, возникающей из фальшивых или искаженных нарративов. Набор данных был создан путем выявления широко опровергнутых утверждений из источников проверки фактов и отслеживания связанных обсуждений на YouTube, в результате чего было собрано 4530 пользовательских комментариев. Каждый комментарий аннотирован по трем интерпретируемым измерениям: Объект (на кого направлено воздействие), Умысел (скрытая мотивация или цель комментария) и Последствие (его потенциальное социальное воздействие). В отличие от предыдущих наборов данных для объяснимости, таких как HateXplain и HARE, которые предлагают токен-уровневую или одномерную интерпретацию, HateMirage представляет многомерную систему объяснений, фиксирующую взаимосвязь между дезинформацией, вредом и социальными последствиями. Мы провели тестирование нескольких моделей с открытым исходным кодом на наборе HateMirage, используя метрики ROUGE-L F1 и косинусное сходство Sentence-BERT для оценки связности объяснений. Результаты позволяют предположить, что качество объяснений может в большей степени зависеть от разнообразия предобучения и данных, ориентированных на логический вывод, чем только от масштаба модели. Сочетая анализ дезинформации с атрибуцией вреда, HateMirage устанавливает новый стандарт для интерпретируемого обнаружения ненависти и исследований в области ответственного ИИ.
English
Subtle and indirect hate speech remains an underexplored challenge in online safety research, particularly when harmful intent is embedded within misleading or manipulative narratives. Existing hate speech datasets primarily capture overt toxicity, underrepresenting the nuanced ways misinformation can incite or normalize hate. To address this gap, we present HateMirage, a novel dataset of Faux Hate comments designed to advance reasoning and explainability research on hate emerging from fake or distorted narratives. The dataset was constructed by identifying widely debunked misinformation claims from fact-checking sources and tracing related YouTube discussions, resulting in 4,530 user comments. Each comment is annotated along three interpretable dimensions: Target (who is affected), Intent (the underlying motivation or goal behind the comment), and Implication (its potential social impact). Unlike prior explainability datasets such as HateXplain and HARE, which offer token-level or single-dimensional reasoning, HateMirage introduces a multi-dimensional explanation framework that captures the interplay between misinformation, harm, and social consequence. We benchmark multiple open-source language models on HateMirage using ROUGE-L F1 and Sentence-BERT similarity to assess explanation coherence. Results suggest that explanation quality may depend more on pretraining diversity and reasoning-oriented data rather than on model scale alone. By coupling misinformation reasoning with harm attribution, HateMirage establishes a new benchmark for interpretable hate detection and responsible AI research.