ChatPaper.aiChatPaper

Vers la détection des abus audio interlingues dans des environnements à faibles ressources avec l'apprentissage à quelques exemples

Towards Cross-Lingual Audio Abuse Detection in Low-Resource Settings with Few-Shot Learning

December 2, 2024
Auteurs: Aditya Narayan Sankaran, Reza Farahbaksh, Noel Crespi
cs.AI

Résumé

La détection de contenu abusif en ligne, en particulier dans des environnements à ressources limitées et dans la modalité audio, reste peu explorée. Nous étudions le potentiel des représentations audio pré-entraînées pour détecter le langage abusif dans des langues à faibles ressources, dans ce cas, dans les langues indiennes en utilisant l'Apprentissage à Faible Nombre d'Exemples (FSL). En exploitant des représentations puissantes de modèles tels que Wav2Vec et Whisper, nous explorons la détection d'abus interlingue en utilisant l'ensemble de données ADIMA avec FSL. Notre approche intègre ces représentations dans le cadre d'Apprentissage Méta-Agnostique de Modèle (MAML) pour classer le langage abusif dans 10 langues. Nous expérimentons avec diverses tailles d'échantillons (50-200) en évaluant l'impact des données limitées sur les performances. De plus, une étude de visualisation des caractéristiques a été menée pour mieux comprendre le comportement du modèle. Cette étude met en lumière la capacité de généralisation des modèles pré-entraînés dans des scénarios à faibles ressources et offre des perspectives précieuses pour détecter le langage abusif dans des contextes multilingues.
English
Online abusive content detection, particularly in low-resource settings and within the audio modality, remains underexplored. We investigate the potential of pre-trained audio representations for detecting abusive language in low-resource languages, in this case, in Indian languages using Few Shot Learning (FSL). Leveraging powerful representations from models such as Wav2Vec and Whisper, we explore cross-lingual abuse detection using the ADIMA dataset with FSL. Our approach integrates these representations within the Model-Agnostic Meta-Learning (MAML) framework to classify abusive language in 10 languages. We experiment with various shot sizes (50-200) evaluating the impact of limited data on performance. Additionally, a feature visualization study was conducted to better understand model behaviour. This study highlights the generalization ability of pre-trained models in low-resource scenarios and offers valuable insights into detecting abusive language in multilingual contexts.

Summary

AI-Generated Summary

PDF22December 3, 2024