ChatPaper.aiChatPaper

YouTube-SL-25: Un Corpus Parallelo Multilingue su Larga Scala per la Lingua dei Segni in Dominio Aperto

YouTube-SL-25: A Large-Scale, Open-Domain Multilingual Sign Language Parallel Corpus

July 15, 2024
Autori: Garrett Tanzer, Biao Zhang
cs.AI

Abstract

Anche per le lingue dei segni più studiate come la Lingua dei Segni Americana (ASL), i dati rappresentano il collo di bottiglia per la ricerca nel campo dell'apprendimento automatico. La situazione è ancora peggiore per le molte altre lingue dei segni utilizzate dalle comunità di persone sorde o con problemi di udito in tutto il mondo. In questo articolo, presentiamo YouTube-SL-25, un corpus multilingue su larga scala e a dominio aperto di video in lingua dei segni con didascalie apparentemente ben allineate estratti da YouTube. Con oltre 3000 ore di video in più di 25 lingue dei segni, YouTube-SL-25 è a) più di 3 volte la dimensione di YouTube-ASL, b) il più grande dataset parallelo di lingua dei segni fino ad oggi, e c) il primo o il più grande dataset parallelo per molte delle lingue che lo compongono. Forniamo baseline per i compiti di traduzione da segno a testo utilizzando un modello multilingue multitask unificato basato su T5 e riportiamo i punteggi su benchmark relativi a 4 lingue dei segni. I risultati dimostrano che il trasferimento multilingue apporta benefici sia alle lingue dei segni con risorse più abbondanti che a quelle con risorse più limitate all'interno di YouTube-SL-25.
English
Even for better-studied sign languages like American Sign Language (ASL), data is the bottleneck for machine learning research. The situation is worse yet for the many other sign languages used by Deaf/Hard of Hearing communities around the world. In this paper, we present YouTube-SL-25, a large-scale, open-domain multilingual corpus of sign language videos with seemingly well-aligned captions drawn from YouTube. With >3000 hours of videos across >25 sign languages, YouTube-SL-25 is a) >3x the size of YouTube-ASL, b) the largest parallel sign language dataset to date, and c) the first or largest parallel dataset for many of its component languages. We provide baselines for sign-to-text tasks using a unified multilingual multitask model based on T5 and report scores on benchmarks across 4 sign languages. The results demonstrate that multilingual transfer benefits both higher- and lower-resource sign languages within YouTube-SL-25.
PDF104November 28, 2024