HateMirage: Un Conjunto de Datos Explicable y Multidimensional para Decodificar el Odio Falso y el Abuso Sutil en Línea
HateMirage: An Explainable Multi-Dimensional Dataset for Decoding Faux Hate and Subtle Online Abuse
March 3, 2026
Autores: Sai Kartheek Reddy Kasu, Shankar Biradar, Sunil Saumya, Md. Shad Akhtar
cs.AI
Resumen
El discurso de odio sutil e indirecto sigue siendo un desafío poco explorado en la investigación sobre seguridad en línea, particularmente cuando la intención dañina se incrusta en narrativas engañosas o manipuladoras. Los conjuntos de datos existentes sobre discurso de odio capturan principalmente la toxicidad explícita, subrepresentando las formas matizadas en que la desinformación puede incitar o normalizar el odio. Para abordar esta brecha, presentamos HateMirage, un novedoso conjunto de datos de comentarios de Falso Odio diseñado para avanzar en la investigación sobre razonamiento y explicabilidad del odio emergente de narrativas falsas o distorsionadas. El conjunto de datos se construyó identificando afirmaciones de desinformación ampliamente desacreditadas a partir de fuentes de verificación de datos y rastreando debates relacionados en YouTube, resultando en 4.530 comentarios de usuarios. Cada comentario está anotado a lo largo de tres dimensiones interpretables: Objetivo (quién es afectado), Intención (la motivación o objetivo subyacente detrás del comentario) e Implicación (su impacto social potencial). A diferencia de conjuntos de datos de explicabilidad anteriores como HateXplain y HARE, que ofrecen un razonamiento a nivel de token o unidimensional, HateMirage introduce un marco de explicación multidimensional que captura la interacción entre la desinformación, el daño y la consecuencia social. Evaluamos múltiples modelos de lenguaje de código abierto en HateMirage utilizando ROUGE-L F1 y similitud de Sentence-BERT para evaluar la coherencia de las explicaciones. Los resultados sugieren que la calidad de la explicación podría depender más de la diversidad del preentrenamiento y de los datos orientados al razonamiento que únicamente de la escala del modelo. Al acoplar el razonamiento sobre desinformación con la atribución de daño, HateMirage establece un nuevo punto de referencia para la detección de odio interpretable y la investigación en IA responsable.
English
Subtle and indirect hate speech remains an underexplored challenge in online safety research, particularly when harmful intent is embedded within misleading or manipulative narratives. Existing hate speech datasets primarily capture overt toxicity, underrepresenting the nuanced ways misinformation can incite or normalize hate. To address this gap, we present HateMirage, a novel dataset of Faux Hate comments designed to advance reasoning and explainability research on hate emerging from fake or distorted narratives. The dataset was constructed by identifying widely debunked misinformation claims from fact-checking sources and tracing related YouTube discussions, resulting in 4,530 user comments. Each comment is annotated along three interpretable dimensions: Target (who is affected), Intent (the underlying motivation or goal behind the comment), and Implication (its potential social impact). Unlike prior explainability datasets such as HateXplain and HARE, which offer token-level or single-dimensional reasoning, HateMirage introduces a multi-dimensional explanation framework that captures the interplay between misinformation, harm, and social consequence. We benchmark multiple open-source language models on HateMirage using ROUGE-L F1 and Sentence-BERT similarity to assess explanation coherence. Results suggest that explanation quality may depend more on pretraining diversity and reasoning-oriented data rather than on model scale alone. By coupling misinformation reasoning with harm attribution, HateMirage establishes a new benchmark for interpretable hate detection and responsible AI research.