Richtung der länderübergreifenden Erkennung von Audio-Missbrauch in ressourcenarmen Umgebungen mit Few-Shot-Lernen
Towards Cross-Lingual Audio Abuse Detection in Low-Resource Settings with Few-Shot Learning
December 2, 2024
Autoren: Aditya Narayan Sankaran, Reza Farahbaksh, Noel Crespi
cs.AI
Zusammenfassung
Die Erkennung von Online-Missbrauchsinhalten, insbesondere in ressourcenarmen Umgebungen und im Audio-Modus, ist nach wie vor wenig erforscht. Wir untersuchen das Potenzial von vortrainierten Audio-Repräsentationen zur Erkennung von missbräuchlicher Sprache in ressourcenarmen Sprachen, in diesem Fall in indischen Sprachen, unter Verwendung des Few-Shot-Learnings (FSL). Durch die Nutzung leistungsstarker Repräsentationen aus Modellen wie Wav2Vec und Whisper erforschen wir die länderübergreifende Missbrauchserkennung unter Verwendung des ADIMA-Datensatzes mit FSL. Unser Ansatz integriert diese Repräsentationen innerhalb des Model-Agnostic Meta-Learning (MAML)-Frameworks, um missbräuchliche Sprache in 10 Sprachen zu klassifizieren. Wir experimentieren mit verschiedenen Schussgrößen (50-200) und bewerten den Einfluss begrenzter Daten auf die Leistung. Darüber hinaus wurde eine Studie zur Merkmalsvisualisierung durchgeführt, um das Verhalten des Modells besser zu verstehen. Diese Studie hebt die Verallgemeinerungsfähigkeit vortrainierter Modelle in ressourcenarmen Szenarien hervor und bietet wertvolle Einblicke in die Erkennung von missbräuchlicher Sprache in multilingualen Kontexten.
English
Online abusive content detection, particularly in low-resource settings and
within the audio modality, remains underexplored. We investigate the potential
of pre-trained audio representations for detecting abusive language in
low-resource languages, in this case, in Indian languages using Few Shot
Learning (FSL). Leveraging powerful representations from models such as Wav2Vec
and Whisper, we explore cross-lingual abuse detection using the ADIMA dataset
with FSL. Our approach integrates these representations within the
Model-Agnostic Meta-Learning (MAML) framework to classify abusive language in
10 languages. We experiment with various shot sizes (50-200) evaluating the
impact of limited data on performance. Additionally, a feature visualization
study was conducted to better understand model behaviour. This study highlights
the generalization ability of pre-trained models in low-resource scenarios and
offers valuable insights into detecting abusive language in multilingual
contexts.