ChatPaper.aiChatPaper

Richtung der länderübergreifenden Erkennung von Audio-Missbrauch in ressourcenarmen Umgebungen mit Few-Shot-Lernen

Towards Cross-Lingual Audio Abuse Detection in Low-Resource Settings with Few-Shot Learning

December 2, 2024
Autoren: Aditya Narayan Sankaran, Reza Farahbaksh, Noel Crespi
cs.AI

Zusammenfassung

Die Erkennung von Online-Missbrauchsinhalten, insbesondere in ressourcenarmen Umgebungen und im Audio-Modus, ist nach wie vor wenig erforscht. Wir untersuchen das Potenzial von vortrainierten Audio-Repräsentationen zur Erkennung von missbräuchlicher Sprache in ressourcenarmen Sprachen, in diesem Fall in indischen Sprachen, unter Verwendung des Few-Shot-Learnings (FSL). Durch die Nutzung leistungsstarker Repräsentationen aus Modellen wie Wav2Vec und Whisper erforschen wir die länderübergreifende Missbrauchserkennung unter Verwendung des ADIMA-Datensatzes mit FSL. Unser Ansatz integriert diese Repräsentationen innerhalb des Model-Agnostic Meta-Learning (MAML)-Frameworks, um missbräuchliche Sprache in 10 Sprachen zu klassifizieren. Wir experimentieren mit verschiedenen Schussgrößen (50-200) und bewerten den Einfluss begrenzter Daten auf die Leistung. Darüber hinaus wurde eine Studie zur Merkmalsvisualisierung durchgeführt, um das Verhalten des Modells besser zu verstehen. Diese Studie hebt die Verallgemeinerungsfähigkeit vortrainierter Modelle in ressourcenarmen Szenarien hervor und bietet wertvolle Einblicke in die Erkennung von missbräuchlicher Sprache in multilingualen Kontexten.
English
Online abusive content detection, particularly in low-resource settings and within the audio modality, remains underexplored. We investigate the potential of pre-trained audio representations for detecting abusive language in low-resource languages, in this case, in Indian languages using Few Shot Learning (FSL). Leveraging powerful representations from models such as Wav2Vec and Whisper, we explore cross-lingual abuse detection using the ADIMA dataset with FSL. Our approach integrates these representations within the Model-Agnostic Meta-Learning (MAML) framework to classify abusive language in 10 languages. We experiment with various shot sizes (50-200) evaluating the impact of limited data on performance. Additionally, a feature visualization study was conducted to better understand model behaviour. This study highlights the generalization ability of pre-trained models in low-resource scenarios and offers valuable insights into detecting abusive language in multilingual contexts.
PDF22December 3, 2024