Vers la détection des abus audio interlingues dans des environnements à faibles ressources avec l'apprentissage à quelques exemples
Towards Cross-Lingual Audio Abuse Detection in Low-Resource Settings with Few-Shot Learning
December 2, 2024
Auteurs: Aditya Narayan Sankaran, Reza Farahbaksh, Noel Crespi
cs.AI
Résumé
La détection de contenu abusif en ligne, en particulier dans des environnements à ressources limitées et dans la modalité audio, reste peu explorée. Nous étudions le potentiel des représentations audio pré-entraînées pour détecter le langage abusif dans des langues à faibles ressources, dans ce cas, dans les langues indiennes en utilisant l'Apprentissage à Faible Nombre d'Exemples (FSL). En exploitant des représentations puissantes de modèles tels que Wav2Vec et Whisper, nous explorons la détection d'abus interlingue en utilisant l'ensemble de données ADIMA avec FSL. Notre approche intègre ces représentations dans le cadre d'Apprentissage Méta-Agnostique de Modèle (MAML) pour classer le langage abusif dans 10 langues. Nous expérimentons avec diverses tailles d'échantillons (50-200) en évaluant l'impact des données limitées sur les performances. De plus, une étude de visualisation des caractéristiques a été menée pour mieux comprendre le comportement du modèle. Cette étude met en lumière la capacité de généralisation des modèles pré-entraînés dans des scénarios à faibles ressources et offre des perspectives précieuses pour détecter le langage abusif dans des contextes multilingues.
English
Online abusive content detection, particularly in low-resource settings and
within the audio modality, remains underexplored. We investigate the potential
of pre-trained audio representations for detecting abusive language in
low-resource languages, in this case, in Indian languages using Few Shot
Learning (FSL). Leveraging powerful representations from models such as Wav2Vec
and Whisper, we explore cross-lingual abuse detection using the ADIMA dataset
with FSL. Our approach integrates these representations within the
Model-Agnostic Meta-Learning (MAML) framework to classify abusive language in
10 languages. We experiment with various shot sizes (50-200) evaluating the
impact of limited data on performance. Additionally, a feature visualization
study was conducted to better understand model behaviour. This study highlights
the generalization ability of pre-trained models in low-resource scenarios and
offers valuable insights into detecting abusive language in multilingual
contexts.Summary
AI-Generated Summary